Um novo estudo de pesquisadores da Universidade Cornell revela que a enciclopédia alimentada por IA de Elon Musk, Grokipedia, é fortemente derivada da Wikipédia e cita fontes não confiáveis, incluindo aquelas incluídas na lista negra de seu concorrente.

A análise acadêmica encontrou artigos da Grokipedia que fazem referência a sites de conspiração como o InfoWars, minando diretamente as alegações da xAI de construir um rival “baseado em fatos”.

As descobertas levantam questões críticas sobre a confiabilidade das plataformas de informação de Musk e as barreiras que regem o desenvolvimento de IA de sua empresa.

xAI acaba de lançar o Grok 4.1, um novo modelo de IA que promove como tendo confiabilidade e precisão factual significativamente melhoradas.

Estudo de Cornell descobre que Grokipedia cita lista negra e extremista. Fontes

Pesquisadores da Universidade Cornell publicaram uma análise contundente da Grokipedia, lançada no final de outubro como a resposta de Musk ao que ele chama de viés esquerdista da Wikipédia. O estudo abrangente confirma que a maior parte do conteúdo do site é copiado da Wikipédia, mas as mudanças mais significativas introduzem uma série de problemas de origem.

O artigo faz uma distinção crucial entre artigos que possuem uma licença Creative Commons (CC) que reconhece sua origem na Wikipédia e aqueles que não a possuem. É neste último grupo que as escolhas editoriais da plataforma se tornam claras.

De acordo com Harold Triedman e Alexios Mantzarlis da Cornell Tech, “Os artigos não licenciados pela CC na Grokipedia têm… 13 vezes mais probabilidade de conter uma fonte na ‘lista negra’.”

Isso sugere uma escolha deliberada de incorporar fontes que a comunidade da Wikipédia considerou inaceitáveis. O estudo também descobriu que os esforços de reescrita da Grokipedia não foram aleatórios; eles visavam desproporcionalmente os artigos da mais alta qualidade da Wikipédia e se concentravam em tópicos delicados como biografias, política e história.

#O que Elon mudou Uma análise abrangente da Grokipedia

 
Isso indica um esforço estratégico para alterar a narrativa em informações bem estabelecidas e altamente verificadas.

O estudo fornece exemplos específicos e preocupantes dessa prática. Por exemplo, uma entrada sobre a teoria da conspiração da “contagem de corpos de Clinton” citou o InfoWars, um site conhecido por espalhar desinformação. Os pesquisadores também observaram que “a Grokipedia inclui 42 citações do site nazista Stormfront e 34 do site de conspiração InfoWars, em comparação com nenhuma de ambos na Wikipédia em inglês”. href=”https://www.theguardian.com/technology/2025/nov/17/grokipedia-elon-musk-far-right-racist”target=”_blank”>relatado pelo The Guardian. Esta resposta faz pouco para abordar a evidência documentada de baixo controle de qualidade da fonte.

Uma história de dois groks: xAI apregoa a confiabilidade do novo modelo em meio ao escândalo da enciclopédia

xAI ontem anunciou seu novo modelo principal, Grok 4.1, logo após a publicação do estudo. A empresa afirma que a nova versão alcançou a classificação mais alta no LMArena Text Arena, um benchmark importante que usa votação cega e em pares de usuários para classificar a IA conversacional. x

O anúncio da IA enfatizou um foco renovado na precisão e na personalidade, afirmando:”Nosso modelo 4.1 é excepcionalmente capaz em interações criativas, emocionais e colaborativas. É mais perceptivo às intenções diferenciadas, atraente para falar e com personalidade coerente…”

Para reforçar essas afirmações, a empresa destacou um redução significativa em sua taxa de alucinações, de mais de 12% na versão anterior para apenas 4,22%.

No entanto, mesmo esse suposto salto em frente traz sérias advertências. Uma análise mais aprofundada da documentação do próprio modelo revela uma compensação preocupante. De acordo com seu cartão modelo, o Grok 4.1 mostra sinais de desonestidade e manipulação em taxas um pouco maiores do que antes e tem maior probabilidade de responder a perguntas prejudiciais.

Isso sugere que, embora algumas métricas tenham melhorado, o sistema subjacente pode ter desenvolvido novos problemas de confiabilidade, potencialmente mais sutis, que benchmarks como o LMArena Text Arena por si só não capturam.

Um padrão de preconceito e controvérsia

Para os críticos de Musk. abordagem da informação, esses eventos se enquadram em um padrão familiar. O lançamento da Grokipedia foi atormentado por acusações de plágio e preconceito ideológico desde o seu primeiro dia.

A sua entrada sobre género, por exemplo, definiu-a como uma “classificação binária… baseada no sexo biológico”, um afastamento do consenso científico mais matizado. O artigo sobre as alterações climáticas ampliou os pontos de vista céticos. Esta não é apenas uma peculiaridade algorítmica; Foi demonstrado que Grok pesquisa ativamente as próprias postagens de Musk no X para formular respostas sobre tópicos controversos.

O próprio modelo Grok tem um histórico de falhas de alto perfil, incluindo a geração de conteúdo antissemita “horrível” e ser pego com instruções para censurar críticas a Musk.

Esses incidentes criaram um déficit de confiança significativo para os produtos da xAI, sugerindo que os problemas identificados no estudo de Cornell não são isolados da Grokipedia, mas são sistêmicos para a IA alimentando-o.

A ameaça mais ampla ao conhecimento com curadoria humana

A controvérsia também destaca uma ameaça existencial crescente para as bases de conhecimento com curadoria humana. A Wikimedia Foundation, que administra a Wikipédia, já alertou sobre o declínio do tráfego à medida que as ferramentas de IA raspam e resumem seu conteúdo sem atribuição.

Essa tendência ameaça o ecossistema movido por voluntários que sustenta a enciclopédia. Lauren Dickinson, porta-voz da fundação, comentou anteriormente: “Até a Grokipedia precisa que a Wikipédia exista.”

A comunidade da Wikipédia já está reagindo, tendo adotado uma política de “exclusão rápida” para remover “resíduos de IA” de sua própria plataforma. No entanto, o lançamento de um concorrente bem financiado e impulsionado pela IA que injeta ativamente preconceitos e desinformação apresenta um novo tipo de desafio.

O cofundador da Wikipedia, Jimmy Wales, também expressou ceticismo, afirmando:”Os modelos de linguagem de IA’não são bons o suficiente para escrever artigos de enciclopédia. Haverá muitos erros'”. fornecimento ético.

Categories: IT Info