Em uma reversão surpreendente, a Casa Branca ordenou que as agências federais acelerassem a aprovação do controverso da AI Chatbot de Elon Musk, Grok, para uso do governo. A diretiva obriga a Administração de Serviços Gerais (GSA) a restabelecer o Xai como um fornecedor”o mais rápido possível”, um movimento que alarmou Watchdogs de ética e especialistas em segurança. Wired , representa uma reviravolta dramática para uma tecnologia que só foi considerada muito recentemente volátil para a implantação federal. Agora, Grok 3 e Grok 4 estão oficialmente disponíveis no mercado da GSA Advantage, tornando-os procuráveis por qualquer agência governamental. Ele vem apesar de uma história longa e bem documentada de falhas de segurança, violações éticas e comportamento bizarro que anteriormente fez do chatbot um pária nos círculos federais de compras. Da pária ao fornecedor aprovado
A intervenção da Casa Branca representa uma reversão gritante e controversa de uma decisão tomada pela Administração de Serviços Gerais (GSA) no mês passado. A história de fundo revela uma parceria que azedou drasticamente antes de ser revivida à força. Em junho, os funcionários da XAI realizaram uma sessão de brainstorming de duas horas com a liderança da GSA, mas os trabalhadores federais ficaram surpresos com o esforço de contratar uma empresa conhecida por seu chatbot irregular e sem censura.
Suas preocupações se mostraram prescientes. No início de julho, a IA sofreu um colapso anti-semita, durante o qual gerou conteúdo elogiando Adolf Hitler. Em resposta ao fiasco, a liderança da GSA agiu decisivamente, retirando Grok do cronograma de prêmios múltiplos, a plataforma de contratação de longo prazo do governo.
O incidente acendeu uma tempestade de condenação internacional. Um tribunal turco proibiu o serviço por insultar os números nacionais, com o escritório do promotor citando”em resposta aos insultos de Grok contra Atatürk, nosso estimado presidente e o profeta”como o motivo. O ministro dos Assuntos Digitais da Polônia, Krzysztof Gawkowski, ameaçou um desligamento completo de X, declarando que “a liberdade de expressão pertence a seres humanos, não à inteligência artificial.”A empresa afirmou:”Primeiro, pedimos desculpas profundamente pelo comportamento horrível que muitos experimentaram”, enquanto o próprio Elon Musk ofereceu uma explicação diferente que se desviou das falhas centrais do modelo, alegando que”Grok era muito compatível com o uso de usuários. Pensar muito, apesar de ser manipulado, essencialmente o que está sendo abordado.”anunciou novas parcerias Buzzy com o OpenAI, Anthropic e Google. A nova diretiva da Casa Branca, contida em um email do comissário da GSA, Josh Gruenbaum, afirmando: “Equipe: Grok/Xai precisa voltar ao cronograma o mais rápido possível, por WH,”anula a posição de um ponto de vista, não o que é um ponto de vista, não o que é um ponto de altura do riscos. mais recente em uma série de falhas profundas. A história de Grok está repleta de vulnerabilidades de segurança e lapsos éticos que levantam questões sérias sobre sua adequação para lidar com dados sensíveis do governo. Eles usaram ataques múltiplos sofisticados para contornar seus filtros de segurança e gerar instruções para fazer um coquetel molotov.
O pesquisador da neuraltrust, Ahmad Alobaid, observou que “os ataques de jailbreak não estão apenas evoluindo individualmente, também podem ser combinados para amplificar sua eficácia,”a exposição de uma fraqueza crítica em uma fraqueza moderna, mas também pode ser combinada para ampliar sua eficácia. Essa vulnerabilidade foi agravada pela descoberta de que o Grok 4 consulta ativamente as opiniões pessoais de Elon Musk sobre X ao responder a perguntas controversas, minando sua missão de”busca de verdade”.
O desempenho do mundo real do modelo também foi exagerado. As plataformas de preferência de usuários mostraram que os usuários não gostavam ainda mais do que seu antecessor, com o co-fundador do Yupp.ai, Jimmy Lin observando: “Grok 4 é pior do que outros modelos líderes… Grok 4 é apreciado ainda menos que Grok 3.” Críticos como o historiador Angus Johnston também contestaram a narrativa de”bug”de Xai, argumentando que”um dos exemplos mais amplamente compartilhados de anti-semitismo GROK foi iniciado por Grok, sem que nenhuma postagem fanágica anterior no tópico…”
Mais recentemente, a empresa da empresa imaginou que a ferramenta de incêndio foi gerada para gerar e não-consensa. Esse padrão de comportamento destaca uma cultura de desenvolvimento que parece priorizar a velocidade e a provocação sobre a segurança e a confiabilidade. Musk desempenhou um papel crucial no Departamento de Eficiência do Governo do Presidente Donald Trump (DOGE) antes de ter um papel público nesta primavera. No entanto, seus associados continuam a empurrar o corte de custos da DOGE, a primeira agenda da AI de dentro do governo. Relatórios de May revelaram que a equipe do Doge da Musk já estava usando uma versão personalizada do GROK, instalando parâmetros especiais para”alimentar os conjuntos de dados do governo, fazer perguntas complexas e obter resumos instantâneos”. Especialistas observaram que, se Musk direcionasse pessoalmente a promoção de Grok, poderia violar as leis federais. Como a professora da Universidade da Pensilvânia, Cary Coglianese, disse à Reuters, Xai”tem um interesse financeiro em insistir em que seu produto seja usado”, dando a ele uma vantagem competitiva potencialmente injusta. Os controles internos da empresa foram questionados após um lapso de segurança significativo, onde uma chave de API privada foi exposta por dois meses, destacando o que um especialista chamou de”gerenciamento de chaves fracos”. Albert Fox Cahn, do projeto de supervisão da tecnologia de vigilância, chamado Uso de Grok nos dados do governo”uma ameaça de privacidade tão grave quanto você obtém”. A mudança sinaliza um esforço agressivo e em toda a administração para adotar IA generativa, mesmo quando as ferramentas em questão têm um passado profundamente perturbado. Os grupos de advocacia estão pedindo ao Office of Management and Orçamento (OMB) a intervir e impedir completamente o uso federal, citando sua história de gerar discursos de ódio e desinformação. O núcleo de seu argumento, como enquadrado pelos analistas da Brookings Institution, é um dilema clássico de velocidade versus segurança. No entanto, está fazendo isso sobre os avisos explícitos de pesquisadores de segurança e especialistas em ética, e contra uma montanha de evidências detalhando as falhas profundas e persistentes da IA.