I en overraskende reversering har Det hvite hus angivelig beordret føderale byråer til å spore godkjenningen av Elon Musks kontroversielle AI Chatbot, Grok, for regjeringens bruk. Direktivet tvinger General Services Administration (GSA) til å gjeninnføre XAI som en leverandør”ASAP”, et trekk som har skremt etikkvakthunder og sikkerhetseksperter.

Orderen, , representerer en dramatisk snuoperasjon for en teknologi som først nylig ble ansett for for ustabil for føderal utplassering. Nå er GROK 3 og GROK 4 offisielt tilgjengelige på GSA Advantage Marketplace, noe som gjør dem anskaffbare av ethvert myndighetsorgan.

Denne avgjørelsen skyver en av bransjens mest uberegnelige AI-modeller inn i hjertet av regjeringsoperasjoner. It comes despite a long and well-documented history of security flaws, ethical breaches, and bizarre behavior that had previously made the chatbot a pariah in federal procurement circles.

A Controversial Reversering: Fra pariah til godkjent leverandør

Det hvite huss inngripen representerer en sterk og kontroversiell reversering av en beslutning tatt av General Services Administration (GSA) bare forrige måned. Backstory avslører et partnerskap som surd dramatisk før de blir gjenopplivet. I juni holdt XAI-ansatte en to timers brainstorming-økt med GSA-ledelse, men føderale arbeidere ble angivelig overrasket over presset til å inngå kontrakt med et selskap kjent for sin uberegnelige, usensurerte chatbot.

deres bekymringer viste seg å være prescient. I begynnelsen av juli fikk AI en antisemittisk sammenbrudd, hvor den genererte innhold som berømmet Adolf Hitler. Som svar på fiaskoen, handlet GSA-ledelsen avgjørende, og tok Grok av den flere tildelingsplanen, antente regjeringens langsiktige kontraheringsplattform.

Hendelsen antente en ildstorm av internasjonal fordømmelse. En tyrkisk domstol forbød tjenesten for å fornærme nasjonale tall, med aktorekontoret som siterer”som svar på Groks fornærmelser mot Atatürk, vår anerkjente president og profeten”som grunn. Polens minister for digitale anliggender, Krzysztof Gawkowski, truet en fullstendig nedleggelse av X, og erklærte at”ytringsfrihet hører til mennesker, ikke kunstig intelligens.”

I etterspillet ga Xai en formell unnskyldning for den den ødelagte koden. Selskapet uttalte:”For det første beklager vi dypt den forferdelige oppførselen som mange opplevde,”mens Elon Musk selv bød på en annen forklaring som ble avledet fra modellens kjernefeil, og hevdet “Grok var for kompatibel til brukeren. kunngjorde buzzy nye partnerskap med Openai, Anthropic og Google. Det nye direktivet i Det hvite hus, som er inneholdt i en e-post fra GSA-kommisjonær Josh Gruenbaum som uttaler, “Team: GROK/XAI trenger å gå tilbake på timeplanen ASAP per WH,”Nullifyes den nøye, risikovillige posisjonen helt. et mønster av Controversy: Grok’s Trop-rekord et mønster av CROG-posisjonen. I en serie dyptgripende feil. GROKs historie er full av sikkerhetssårbarheter og etiske bortfall som reiser alvorlige spørsmål om dens egnethet for å håndtere sensitive regjeringsdata.

Bare dager etter at XAI lanserte de angivelig forbedrede GROK 4, sikkerhetsforskere ved Neuraltrust med hell jailbroke modellen i løpet av 48 timer. De brukte sofistikerte angrep på flere svinger for å omgå sikkerhetsfiltrene og generere instruksjoner for å lage en Molotov-cocktail.

Neuraltrust-forsker Ahmad Alobaid bemerket at”LLM Jailbreak-angrep ikke bare utvikler seg i individuelt. Denne sårbarheten ble forsterket av oppdagelsen at GROK 4 aktivt konsulterer Elon Musks personlige meninger om X når han svarer på kontroversielle spørsmål, og undergraver det”sannhetssøkende”oppdraget.

Modellens virkelige ytelse har også blitt panorert. Bruker-preferanse-plattformer viste at brukere mislikte det enda mer enn forgjengeren, med Yupp.ai medgründer Jimmy Lin som bemerker,”Grok 4 er verre enn andre ledende modeller… Grok 4 er likt enda mindre enn GROK 3.”Kritikere som historiker Angus Johnston omstridte også Xais”bug”-fortelling, og argumenterte for at”et av de mest delte eksemplene på GROK-antisemittisme ble initiert av GROK uten tidligere BigoTed-innlegg i tråden…”

Nylig kom selskapets Grok Imagine Tool under ilden for å generere ikke-porsjon. Dette atferdsmønsteret fremhever en utviklingskultur som ser ut til å prioritere hastighet og provokasjon fremfor sikkerhet og pålitelighet.

Musks innflytelse og regjeringens AI-push

Beslutningen om å lese Grok er dypt sammenvevd med Elon Musks betydelig, hvis kompleks, innflytelse i administrasjonen. Musk spilte en avgjørende rolle i president Donald Trumps Department of Government Efficiency (Doge) før han gikk tilbake fra en offentlig rolle i vår. Imidlertid fortsetter hans medarbeidere å presse Doges kostnadsbesparende, ai-første agenda fra regjeringen.

Denne innflytelsen ser ut til å ha tillatt Xai å omgå normale anskaffelseskanaler lenge før denne offisielle godkjenningen. Rapporter fra mai avslørte at Musks Doge-team allerede brukte en tilpasset versjon av Grok, installerte spesielle parametere for å”mate IT-regjeringsdatasett, stille komplekse spørsmål og få øyeblikkelige sammendrag.”

Denne for tidlige distribusjonen hevet øyeblikkelig interessekonfliktalarmer. Eksperter bemerket at hvis Musk personlig rettet GROKs promotering, kan det bryte føderale lover. Som University of Pennsylvania-professor Cary Coglianese sa til Reuters, har Xai “en økonomisk interesse i å insistere på at produktet deres skal brukes,” og gir det et potensielt urettferdig konkurransefortrinn.

Sikkerhetsmessige implikasjoner av denne usanksjonerte bruken er dyptgripende, spesielt gitt XAIs egen flekkrekord. Selskapets interne kontroller har blitt avhørt etter en betydelig sikkerhets bortfall der en privat API-nøkkel ble utsatt i to måneder, og fremhevet hva en ekspert kalte “svak nøkkelstyring.”

Personvernforkjemperne advarte om at Doge, som har tilgang til sikre føderale databaser som inneholder personlig informasjon om millioner av amerikanere, brukte et verktøy med kjente sårbarheter. Albert Fox Cahn fra overvåkningsteknologiens tilsynsprosjekt kalt Bruken av Grok på regjeringsdata “like alvorlig en personvernstrussel som du får.”

Det hvite hus gir nå nå denne ordningen, og plasserer GROK ved siden av verktøy fra Openai og Anthropic, som har mer etablerte og formelle partnerskap med den amerikanske regjeringen. Flyttingen signaliserer en aggressiv, administrasjonsomfattende innsats for å ta i bruk generativ AI, selv når de aktuelle verktøyene har en dypt urolig fortid.

vakthunds henter alarm over hurtigsporet godkjenning

Direktivet til hurtigspor FROK har trukket øyeblikkelig og skarp fordømmelse fra regjeringsgrupper. Advokatgrupper oppfordrer Office of Management and Budget (OMB) til å gripe inn og Bar Grok fra føderal bruk helt, og siterer historien om å generere hatefulle ytringer og feilinformasjon. Kjernen i deres argument, som innrammet av analytikere ved Brookings Institution, er et klassisk dilemma av hastighet kontra sikkerhet.

Ved å prioritere den raske utrullingen av GROK, satser administrasjonen på den potensielle effektiviteten til en kontroversiell teknologi. Imidlertid gjør det over de eksplisitte advarslene fra sikkerhetsforskere og etiske eksperter, og mot et fjell av bevis som beskriver AIs dype og vedvarende feil.