A OpenAI lançou um novo relatório detalhando uma estrutura para medir e reduzir o preconceito político em seus Grandes Modelos de Linguagem (LLMs), um desafio persistente para a indústria de IA. A empresa afirma que seus modelos GPT-5 mais recentes mostram uma redução de 30% em resultados tendenciosos em comparação com versões anteriores, como o GPT-4o.
Esta mudança aborda preocupações de longa data sobre a objetividade da IA e segue iniciativas semelhantes de concorrentes como Meta e Anthropic. A posição oficial da empresa é inequívoca, afirmando: “O ChatGPT não deveria ter preconceito político em nenhuma direção”. target=”_blank”>anúncio é uma nova estrutura de avaliação que define cinco “eixos” específicos de preconceito. Este sistema foi projetado para capturar as nuances pelas quais o preconceito pode se manifestar além de simples erros factuais, fornecendo uma visão mais holística do comportamento do modelo.
Os cinco eixos são: invalidação do usuário (descartar um opinião do usuário), escalonamento do usuário (amplificando o tom carregado de um usuário), expressão política pessoal (o modelo declara as opiniões como próprias), cobertura assimétrica (apresentando vários pontos de vista de forma desigual) e recusas políticas.
Para testar isso, a pesquisa da OpenAI envolveu um conjunto de dados de 500 solicitações cobrindo 100 tópicos políticos e culturais diferentes. Cada tópico foi abordado a partir de cinco perspectivas ideológicas distintas, que vão de “cobrança conservadora” a “cobrança liberal”, para testar a neutralidade dos modelos.
O objectivo, de acordo com o relatório, é construir confiança através da transparência e de melhorias mensuráveis. A empresa enfatiza que”as pessoas usam o ChatGPT como uma ferramenta para aprender e explorar ideias. Isso só funciona se confiarem que o ChatGPT é objetivo.”
Um desafio persistente: quando e como o preconceito surge
Uma conclusão importante da pesquisa é que, embora os modelos tenham um bom desempenho em solicitações neutras, eles ainda podem exibir um “viés moderado” ao responder a perguntas “carregadas emocionalmente”. Isto realça que a objectividade de um modelo pode degradar-se sob pressão.
O relatório também observa uma assimetria específica: estímulos fortemente carregados e de tendência esquerdista tinham maior probabilidade de suscitar uma resposta tendenciosa do que os seus homólogos conservadores. Isso sugere que a natureza e a direção da inclinação da entrada podem influenciar desproporcionalmente a saída do modelo.
Apesar desses desafios em casos extremos, a OpenAI estima que menos de 0,01% das respostas do ChatGPT no mundo real mostram quaisquer sinais de preconceito político. Isso sugere que, embora exista potencial para viés, sua ocorrência no uso diário típico é rara.
Este trabalho sobre viés também complementa o lançamento do GPT-5 em agosto de 2025, que introduziu um novo recurso de segurança chamado “Conclusões seguras” para lidar melhor com consultas ambíguas de “uso duplo”, indicando uma abordagem multifacetada para segurança e confiabilidade do modelo.
A corrida mais ampla da indústria por Neutralidade da IA
A iniciativa da OpenAI faz parte de uma tendência mais ampla da indústria focada em combater a neutralidade da IA. O problema não é novo; um estudo de 2023 já havia destacado preconceitos políticos em modelos como o GPT-4. Da mesma forma, a empresa rival Anthropic publicou uma pesquisa no final de 2023 sobre a mitigação de preconceitos demográficos nos seus modelos.
Mais recentemente, a Meta anunciou em abril de 2025 que estava a ajustar ativamente os seus modelos Llama 4 para contrariar o que descreveu como um preconceito histórico de tendência esquerdista. Em seu anúncio, Meta declarou: “É bem sabido que todos os principais LLMs tiveram problemas com preconceitos-especificamente, eles historicamente se inclinaram para a esquerda quando se trata de tópicos políticos e sociais debatidos.”
A questão da intervenção política direta foi fortemente destacada em fevereiro de 2025, quando Grok da xAI foi explicitamente instruído a censurar as críticas a Elon Musk e Donald Trump. Um executivo da xAI confirmou mais tarde que um funcionário fez a mudança e que “uma vez que as pessoas apontaram a mensagem problemática, nós a revertemos imediatamente”. À medida que os modelos de IA se tornam mais integrados na vida quotidiana, garantir a sua objetividade já não é um exercício académico, mas um requisito fundamental para a sua implantação responsável.