X está expandindo suas notas da comunidade de crowdsourcing que aparecem além da verificação de fatos na curadoria de conteúdo. A plataforma de mídia social anunciou um novo programa piloto na quinta-feira que usará o”algoritmo de ponte”exclusivo do sistema para identificar e destacar as postagens amplamente apreciadas por usuários de diferentes perspectivas. Ele reaproveita a mesma lógica que encontra consenso sobre verificação de fatos, sinalizando uma estratégia mais profunda para incorporar sistemas de comunidade e IA no centro da experiência da plataforma. desinformação. O novo programa piloto, anunciado em 24 de julho, pretende usar o sistema não apenas como um escudo defensivo contra falsidades, mas como uma ferramenta proativa para a descoberta de conteúdo. No seu coração está o”algoritmo de ponte”, um sistema projetado para encontrar consenso entre as pessoas que normalmente mantêm opiniões opostas. Em vez de apenas concordar que uma postagem é enganosa, o objetivo agora é encontrar postagens que os usuários de todo o espectro ideológico acham perspicazes ou valiosos. fluxo de trabalho colaborador. De acordo com o anúncio, um grupo seleto de colaboradores de notas da comunidade começará a ver novos avisos quando um post obtiver tração significativa em curtidas. Eles poderão classificar o post e fornecer feedback específico sobre por que gostam ou não gostam, o que treinará o algoritmo para identificar conteúdo que realmente preenche as perspectivas. Em seu post oficial na X, a empresa enquadrou isso como um processo transparente e iterativo, afirmando que seu objetivo é descobrir: “Idéias, insights e opiniões que preenchem perspectivas.”E se pudéssemos fazer o mesmo por postagens, reconhecendo postagens que são apreciadas por pessoas que normalmente discordam? Ouvimos solicitações para isso há anos desde o lançamento do Notes Community Notes, e estamos iniciando um… pic.twitter.com/itrgwij2ve
-Notas da comunidade (@CommunityNotes) href=”https://twitter.com/communitynotes/status/1930634452046163986?ref_src=twsrc%5etfw”Target=”_ Blank”> 5 de junho, 2025 para o ecossistema de notas da comunidade. Em 1º de julho, X começou a pilotar uma “API da AI Note Writer”, que permite aos modelos de IA, incluindo seu próprio GROK, para gerar os rascunhos iniciais das notas de verificação de fatos. Esses rascunhos gerados pela IA são então enviados para a mesma fila que os escritos humanos para a verificação de voluntários. A empresa enfatizou que a decisão final permanece com as pessoas, com o anúncio declarando: “Ai ajudando os seres humanos. Os humanos ainda estão no comando.”
Tomados juntos, essas duas iniciativas revelam uma estratégia sofisticada e dupla para governança de plataforma que se inclina fortemente em um modelo humano-AI híbrido. A abordagem reflete conceitos detalhados em artigo de pesquisa recente de X Staff e acadêmicos universitários. O artigo defende a criação de um”loop virtuoso”, onde a IA fornece a escala para lidar com volumes maciços de conteúdo, enquanto o feedback diferenciado de uma comunidade humana diversificada não apenas examina a produção, mas também melhora o desempenho futuro da IA-um processo de realização de um dos pesquisadores. A estratégia de
X faz parte de uma tendência muito maior na indústria. As principais plataformas estão adotando cada vez mais a moderação de crowdsourcing, vendo-a como uma alternativa mais escalável e potencialmente menos tendenciosa aos métodos tradicionais. A Meta, por exemplo, tem perseguido agressivamente um caminho semelhante. As imprecisões, admitindo:”Achamos que um a dois em cada 10 dessas ações pode ter sido erros”. O objetivo era reduzir erros. Mark Zuckerberg, CEO da Meta, reconheceu as compensações, afirmando:”Vamos pegar menos coisas ruins, mas também reduziremos o número de postagens e contas de pessoas inocentes que derrubamos acidentalmente”.”
No entanto, essa mudança ainda não é global. Nicola Mendelsohn, chefe de negócios globais da Meta, esclareceu a abordagem cautelosa da empresa, dizendo:”Nada está mudando no resto do mundo no momento; ainda estamos trabalhando com verificadores de fatos globalmente”. Isso é em grande parte para garantir a conformidade com regulamentos mais rígidos em outros lugares, como a Lei de Serviços Digitais da UE. A integração da IA em pipelines de verificação de fatos introduz o risco significativo de”alucinações”, onde os modelos fabricam informações com confiança. Isso poderia criar notas persuasivas, mas perigosamente falsas, revisores humanos esmagadores.
O próprio sistema de notas da comunidade enfrentou críticas persistentes por serem lentos e inconsistentes. Muitas postagens enganosas nunca recebem uma nota ou recebem uma somente depois que o conteúdo se tornar viral. A eficácia do sistema também está ligada à natureza imprevisível do proprietário de X, Elon Musk.
Musk ofereceu visões contraditórias sobre o recurso. Uma vez, ele o elogiou como”incrível”, mas mais tarde afirmou:”As notas da comunidade estão cada vez mais sendo gordeadas pelos governos e mídia legado”, depois que suas próprias postagens sobre política ucraniana foram corrigidas. Essa inconsistência destaca a tensão de um sistema que visa objetividade, enquanto controlado por um único indivíduo franco. O sucesso ou fracasso deste piloto pode definir um novo padrão para moderação e descoberta de conteúdo, mas os riscos de errar são substanciais.