x utvidgar sin crowddsourced community-anteckningar utöver fakta-kontroll till innehållskurering. Den sociala medieplattformen tillkännagav ett nytt pilotprogram på torsdagen som kommer att använda systemets unika”överbryggande algoritm”för att identifiera och lyfta fram inlägg som i stort sett gillade av användare från olika perspektiv.
Detta experiment, tillkännages via det officiella samhället Notes X-konto, syftar till att avslöja”idéer, insikter och åsikter som broperspektiv.”It repurposes the same logic that finds consensus on fact-checks, signaling a deeper strategy to embed community and AI systems at the core of the platform experience.
Beyond Fact-Checking: A New Mission for Community Notes
In a significant evolution of its flagship moderation tool, X is repurposing the foundational technology of Community Notes to move beyond its original mission of debunking felinformation. Det nya pilotprogrammet, som tillkännagavs den 24 juli, syftar till att använda systemet inte bara som en defensiv sköld mot falskheter, utan som ett proaktivt verktyg för upptäckt av innehåll. I sitt hjärta är den”överbryggande algoritmen”, ett system som är utformat för att hitta enighet bland människor som vanligtvis har motsatta åsikter. Istället för att bara komma överens om att ett inlägg är vilseledande, är målet nu att hitta inlägg som användare över det ideologiska spektrumet hittar insiktsfulla eller värdefulla.
community anteckningar visar när de är till hjälp av människor som normalt inte håller med. Vad händer om vi kunde göra samma sak för inlägg och erkänna inlägg som gillade av människor som normalt inte håller med? Vi har hört förfrågningar om detta i flera år sedan lanseringen av community-anteckningar, och vi startar en… pic.twitter.com/itrgwij2ve
-community anteckningar (@communitynotes) 5 juni 2025
Gemenskapen noterar ekosystem. Den 1 juli började X pilotera en”AI Note Writer API”, som gör det möjligt för AI-modeller, inklusive sin egen grok, att generera de första utkasten till faktakontrollanteckningar. Dessa AI-genererade utkast skickas sedan till samma kö som mänskliga skrivna för att vetting av frivilliga. Företaget betonade att det slutliga beslutet kvarstår hos människor, med tillkännagivandet som förklarade,”AI hjälper människor. Människor fortfarande ansvariga.”
Sammantaget, avslöjar dessa två initiativ en sofistikerad, dubbelprongad strategi för plattformsstyrning som lutar sig starkt på en hybrid-mänsklig modell. Tillvägagångssättet återspeglar koncept som beskrivs i en Nyligen forskningsdokument Från x-personal och universitetsakademiker. Uppsatsen argumenterar för att skapa en”dygdig slinga”där AI tillhandahåller skalan för att ta itu med enorma volymer av innehåll, medan den nyanserade feedbacken från ett mångfaldigt mänskligt samhälle inte bara vetererar utgången utan aktivt förbättrar AI: s framtida prestanda-en process Forskarnas armeringslärande från community feedback (rlcf).
Xs strategi är en del av en mycket större branschtrend. Stora plattformar antar alltmer moderering av folkmassor och ser det som ett mer skalbart och potentiellt mindre partiskt alternativ till traditionella metoder. Meta, till exempel, har aggressivt förföljt en liknande väg.
I mars 2025 började Meta testa sitt eget community-anteckningsstilssystem över Facebook, Instagram och trådar i USA. Detta följde ett landmärkesbeslut i januari för att avsluta sitt tredjepartsfakta-fact-checking-program i landet.
Meta’s Global Policy, Jo Kaplan, rättfärdigade av Highlight av Highlight-systemet. Felaktiga, medger,”Vi tror att en till två av vart tionde handlingar kan ha varit misstag.”Målet var att minska fel. Mark Zuckerberg, Metas VD, erkände avvägningarna och konstaterade:”Vi kommer att fånga mindre dåliga saker, men vi kommer också att minska antalet oskyldiga människors inlägg och konton som vi av misstag tar ner.”
Men denna förändring är ännu inte global. Nicola Mendelsohn, Metas chef för global verksamhet, klargjorde företagets försiktiga strategi och sa:”Ingenting förändras i resten av världen just nu; vi arbetar fortfarande med faktacheckare globalt.”Detta är till stor del för att säkerställa överensstämmelse med strängare föreskrifter någon annanstans, till exempel EU: s Digital Services Act.
ai, inkonsekvens och”muskfaktorn”
Trots branschens växande entusiasm är dessa system fyllda med utmaningar. Integrering av AI i fakta-kontroll av rörledningar introducerar den betydande risken för”hallucinationer”, där modeller säkert tillverkar information. Detta kan skapa övertygande men farligt falska anteckningar, överväldigande mänskliga granskare.
Själva samhällets anteckningar har mött ihållande kritik för att vara långsam och inkonsekvent. Många vilseledande inlägg får aldrig en anteckning eller får en först efter att innehållet har blivit viralt. Systemets effektivitet är också knuten till den oförutsägbara karaktären av Xs ägare, Elon Musk.
Musk har erbjudit motsägelsefulla åsikter om funktionen. En gång berömde han det som”fantastiskt”men hävdade senare,”gemenskapsnoter blir alltmer spelade av regeringar och äldre medier”, efter att hans egna inlägg om ukrainsk politik korrigerades. Denna inkonsekvens belyser spänningen i ett system som syftar till objektivitet medan den kontrolleras av en enda, frispråkig individ.
När X skjuter framåt med detta nya experiment, kvarstår den centrala frågan: kan det framgångsrikt utöka omfattningen av samhällsanteckningar utan att förstärka sina befintliga brister? Framgången eller misslyckandet med denna pilot kan sätta en ny standard för innehållsmoderering och upptäckt, men riskerna för att få fel är betydande.