X sta ampliando le sue note di comunità di crowdsourcing oltre a verificare la cura dei contenuti. La piattaforma di social media ha annunciato giovedì un nuovo programma pilota che utilizzerà il”algoritmo di colpa”unico del sistema per identificare ed evidenziare i post ampiamente apprezzati dagli utenti di diverse prospettive.

Questo esperimento, annunciato tramite l’account X della comunità ufficiale, mira a scoprire”idee, intuizioni e opinioni che colpiscono le prospettive”. Riproduce la stessa logica che trova consenso sui controlli dei fatti, segnalando una strategia più profonda per incorporare i sistemi di comunità e AI al centro dell’esperienza della piattaforma.

oltre a checking dei fatti: una nuova missione per le note comunitarie

In una significativa evoluzione del suo strumento di moderazione di flagship, sta riformulando la tecnologia di fondazione oltre la comunità di comunita disinformazione. Il nuovo programma pilota, annunciato il 24 luglio, mira a utilizzare il sistema non solo come scudo difensivo contro le falsità, ma come strumento proattivo per la scoperta di contenuti. Al suo cuore c’è l'”algoritmo di ponte”, un sistema progettato per trovare consenso tra le persone che in genere possiedono opinioni opposte. Invece di accettare che un post sia fuorviante, l’obiettivo è ora quello di trovare post che gli utenti attraverso lo spettro ideologico trovano perspicaci o preziosi.

Le note della comunità mostrano quando sono trovate utili da persone che normalmente non sono d’accordo. E se potessimo fare lo stesso per i post, riconoscendo i post che sono apprezzati da persone che normalmente non sono d’accordo? Abbiamo ascoltato le richieste per anni dal lancio di note della comunità e stiamo iniziando un… pic.twitter.com/itrgwij2ve

-Note della comunità (@communityNotes) 5 giugno 2025

questa esvasione in termini di prese in modo da fare in modo da blank”All’ecosistema delle note della comunità. Il 1 ° luglio, X ha iniziato a pilotare una”API di AI Note Writer”, che consente ai modelli AI, incluso il proprio Grok, di generare le bozze iniziali di note di controllo dei fatti. Queste bozze generate dall’IA vengono quindi inviate alla stessa coda di quelle scritte dall’uomo per il controllo da parte dei volontari. La società ha sottolineato che la decisione finale rimane con le persone, con l’annuncio che dichiara:”AI che aiuta gli umani. Gli umani sono ancora al comando.”

prese insieme, queste due iniziative rivelano una strategia sofisticata e doppia per la governance della piattaforma che si appoggi molto a un modello ibrido umano-AI. L’approccio riflette i concetti dettagliati in un recente documento di ricerca da x personale e accademici universitari. Il documento sostiene la creazione di un”ciclo virtuoso”in cui l’IA fornisce la scala per affrontare enormi volumi di contenuti, mentre il feedback sfumato di una comunità umana diversificata non solo controlla la produzione, ma migliora attivamente le prestazioni future dell’IA-un processo di rinforzo dei ricercatori per la comunità X fa parte di una tendenza del settore molto più ampia. Le piattaforme principali stanno adottando sempre più moderazione crowdsourcing, osservandola come un’alternativa più scalabile e potenzialmente meno distorta ai metodi tradizionali. Meta, ad esempio, ha perseguito in modo aggressivo un percorso simile.

Nel marzo 2025, Meta ha iniziato a testare il proprio sistema in stile comunitario su Facebook, Instagram e thread negli Stati Uniti. Questo ha seguito una decisione di riferimento a gennaio per eliminare il suo precedente programma di controllo dei fatti nel paese. Imprecisione, ammettendo:”Pensiamo che uno a due su 10 di queste azioni possa essere stato errori”. L’obiettivo era ridurre gli errori. Mark Zuckerberg, CEO di Meta, ha riconosciuto i compromessi, affermando:”Cattureremo cose meno cattive, ma ridurremo anche il numero di posti e conti di persone innocenti che eliminiamo accidentalmente.”

Tuttavia, questo spostamento non è ancora globale. Nicola Mendelsohn, responsabile del mondo globale di Meta, ha chiarito l’approccio cauto dell’azienda, dicendo:”Al momento non sta cambiando nulla nel resto del mondo; stiamo ancora lavorando con i controlli dei fatti a livello globale”. Ciò è in gran parte per garantire il rispetto delle normative più severi altrove, come la legge sui servizi digitali dell’UE.

AI, incoerenza e il”fattore muschiato”

Nonostante il crescente entusiasmo del settore, questi sistemi sono pieni di sfide. L’integrazione dell’intelligenza artificiale nelle condutture di controllo dei fatti introduce il rischio significativo di”allucinazioni”, in cui i modelli fabbricano con sicurezza informazioni. Ciò potrebbe creare note persuasive ma pericolosamente false, travolgenti revisori umani.

Il sistema delle note della comunità stesso ha subito critiche persistenti per essere lento e incoerente. Molti post fuorvianti non ricevono mai una nota o ne ricevono una solo dopo che il contenuto è diventato virale. L’efficacia del sistema è anche legata alla natura imprevedibile del proprietario di X, Elon Musk.

Musk ha offerto opinioni contraddittorie sulla caratteristica. Una volta lo ha elogiato come”fantastico”ma in seguito ha affermato:”Le note della comunità sono sempre più coltivate dai governi e dai media legacy”, dopo che i suoi posti sulla politica ucraina sono stati corretti. Questa incoerenza evidenzia la tensione di un sistema che mira all’oggettività mentre è controllata da un singolo individuo esplicito.

Mentre X spinge avanti con questo nuovo esperimento, la domanda centrale rimane: può espandere con successo l’ambito delle note della comunità senza amplificare i difetti esistenti? Il successo o il fallimento di questo pilota potrebbero stabilire un nuovo standard per la moderazione e la scoperta dei contenuti, ma i rischi di sbagliare sono sostanziali.

Categories: IT Info