Într-o inversare surprinzătoare, se pare că Casa Albă a ordonat agențiilor federale să urmărească rapid aprobarea controversată a AI Chatbot, Grok, Grok, pentru uz guvernamental. The directive compels the General Services Administration (GSA) to reinstate xAI as a vendor “ASAP,”a move that has alarmed ethics watchdogs and security experts.

The order, revealed in an internal email obtained by Wired , reprezintă o schimbare dramatică pentru o tehnologie care a fost considerată recent prea volatilă pentru implementarea federală. Acum, Grok 3 și Grok 4 sunt disponibile oficial pe piața GSA Advantage, ceea ce le face procurabile de către orice agenție guvernamentală.

Această decizie aruncă unul dintre cele mai neregulate modele AI ale industriei în inima operațiunilor guvernamentale. Este în ciuda unei istorii lungi și bine documentate a defectelor de securitate, a încălcărilor etice și a unui comportament bizar care a făcut anterior chatbot-ul un pariah în cercurile de achiziții federale.

Intervenția Casei Albe reprezintă o inversare accentuată și controversată a unei decizii luate de Administrația Serviciilor Generale (GSA) chiar luna trecută. Backstory dezvăluie un parteneriat care a suferit dramatic înainte de a fi reînviat cu forța. În iunie, angajații Xai au organizat o sesiune de brainstorming de două ore cu conducerea GSA, dar se pare că lucrătorii federali au fost surprinși de apăsarea de a contracta cu o companie cunoscută pentru chatbot-ul său neregulat, necenzurat. La începutul lunii iulie, AI a suferit o derulare antisemită, timp în care a generat conținut lăudându-l pe Adolf Hitler. Ca răspuns la fiasco, conducerea GSA a acționat decisiv, luând în considerare programul multiplu de atribuire, platforma de contractare pe termen lung a guvernului.

Incidentul a aprins o furtună de condamnare internațională. O instanță turcă a interzis serviciul pentru insultarea cifrelor naționale, cu Parchetul, citând „ca răspuns la insultele lui Grok împotriva lui Atatürk, estimatului nostru președinte și profetului” ca motiv. Ministrul Afacerilor Digitale din Polonia, Krzysztof Gawkowski, a amenințat o oprire completă a lui X, declarând că „libertatea de exprimare aparține oamenilor, nu inteligenței artificiale. Compania a declarat: „În primul rând, ne cerem scuze profund pentru comportamentul oribil pe care mulți l-au experimentat”, în timp ce Elon Musk însuși a oferit o explicație diferită care s-a abătut de defectele de bază ale modelului, susținând că „Grok era prea conform prompturilor utilizatorilor. Prea dornic să mulțumească și să fie manipulat, în esență. A anunțat noi parteneriate zgomotoase cu OpenAI, Antropic și Google. Noua directivă a Casei Albe, cuprinsă într-un e-mail al comisarului GSA, Josh Gruenbaum, afirmând: „Echipa: Grok/XAI trebuie să se întoarcă în program ASAP pe WH,„ anulează faptul că poziția atentă și aversă cu risc în întregime.

Un model de controversă: Grok’s Trouble Track a fost un eveniment izolat, dar cel mai târziu, cel mai târziu, cel mai târziu, cel mai târziu, recordul insuflat, dar cel mai târziu, cel mai târziu, cel mai târziu, cel mai târziu, cel mai târziu, recordul insuflat. Într-o serie de eșecuri profunde. Istoria lui Grok este plină de vulnerabilități de securitate și de scăderi etice care ridică întrebări serioase cu privire la adecvarea sa pentru gestionarea datelor guvernamentale sensibile.

La doar câteva zile după ce Xai a lansat presupusul îmbunătățit Grok 4, cercetătorii de securitate de la NeurarTrust, cu succes, a închis modelul în 48 de ore. Ei au folosit atacuri sofisticate cu mai multe rânduri pentru a-și ocoli filtrele de siguranță și pentru a genera instrucțiuni pentru realizarea unui cocktail Molotov.

cercetătorul neurrust Ahmad Alobaid a menționat că „atacurile de închisoare LLM nu numai că evoluează individual, ci pot fi combinate și pentru a-și amplifica eficacitatea,„ expunând o slăbiciune critică în AI modernă. Această vulnerabilitate a fost agravată de descoperirea că Grok 4 consultă în mod activ opiniile personale ale lui Elon Musk cu privire la X atunci când răspund la întrebări controversate, subminând misiunea sa „în căutarea adevărului”.

Performanța reală a modelului a fost, de asemenea, redusă. Platformele de preferință a utilizatorilor le-au arătat utilizatorilor nu i-au plăcut chiar mai mult decât predecesorul său, co-fondatorul Yupp.AI, Jimmy Lin, remarcând, „Grok 4 este mai rău decât alte modele de frunte… Grok 4 este plăcut chiar mai puțin decât Grok 3.” Critici precum istoricul Angus Johnston a contestat, de asemenea, narațiunea „Bug” a lui Xai, susținând că „unul dintre cele mai partajate exemple de antisemitism Grok a fost inițiată de Grok, fără niciun fel de postare anterioară în fir…”

Mai recent, instrumentul Grok Imagine al companiei a intrat sub foc pentru a genera non-urile care nu se dezvoltă. Acest model de comportament evidențiază o cultură de dezvoltare care pare să acorde prioritate vitezei și provocării asupra siguranței și fiabilității.

influența lui Musk și AI Push AI

Decizia de a reda Grok sunt profund întrețesute cu influența considerabilă, dacă este complexă, dacă este complexă, complexă, complexă, complexă, complexă, în cadrul administrației. Musk a jucat un rol crucial în Departamentul de eficiență a guvernului (Doge) al președintelui Donald Trump, înainte de a se întoarce dintr-un rol public în primăvara acestui an. Cu toate acestea, asociații săi continuă să împingă reducerea costurilor lui Doge, agenda prim-primară din interiorul guvernului.

Această influență pare să fi permis XAI să ocolească canalele de achiziții normale cu mult înainte de această aprobare oficială. Rapoartele de la May au dezvăluit că echipa Doge a lui Musk folosea deja o versiune personalizată a Grok, instalând parametri speciali pentru a „alimenta seturi de date guvernamentale, a pune întrebări complexe și pentru a obține rezumate instantanee. Experții au remarcat că, dacă Musk ar direcționa personal promovarea lui Grok, ar putea încălca legile federale. După cum a declarat pentru Reuters, profesorul de la Universitatea din Pennsylvania, Cary Coglianese, Xai „are un interes financiar de a insista ca produsul lor să fie utilizat,„ oferindu-i un avantaj competitiv potențial nedrept.

implicațiile de securitate ale acestei utilizări nesecționate sunt profunde, în special având în vedere propriul înregistrări al lui Xai. Controalele interne ale companiei au fost puse la îndoială în urma unui interval semnificativ de securitate în care o cheie API privată a fost expusă timp de două luni, subliniind ceea ce un expert a numit „management cheie slabă”.

avocații de confidențialitate au avertizat că Doge, care are acces la baze de date federale care conțin informații personale pe milioane de americani, folosea un instrument cu vulnerabilități cunoscute. Albert Fox Cahn de la Proiectul de supraveghere a tehnologiei de supraveghere a numit utilizarea Grok pe datele guvernamentale „o amenințare de confidențialitate la fel de serioasă pe cât obțineți. Mișcarea semnalează un efort agresiv, la nivel de administrare, pentru a adopta AI generativ, chiar și atunci când instrumentele în cauză au un trecut profund tulburat.

Watchdogs ridică alarma asupra aprobării cu urmărire rapidă

Directiva de a trata rapid, a atras o condamnare imediată și ascuțită de la grupurile de supraveghere a guvernului. Grupurile de advocacy solicită Oficiului de Management și Buget (OMB) să intervină și să-și împiedice utilizarea federală în întregime, citând istoricul său de a genera discursuri de ură și dezinformare. Nucleul argumentului lor, încadrat de analiștii de la Brookings Institution, este o dilemă clasică a vitezei față de siguranță.

prin prioritizarea derulării rapide a GROK, administrația pariază pe eficiența potențială a unei tehnologii controversate. Cu toate acestea, aceasta face acest lucru asupra avertismentelor explicite ale cercetătorilor de securitate și ale experților în etică și împotriva unui munte de dovezi care detaliază defectele profunde și persistente ale AI.

Categories: IT Info