Edy Elon Musk Equest Efficiency Efficiency (Doge), se presupune că utilizează Grok-ul Chatbot Xai în cadrul guvernului Statelor Unite. Această implementare, mai întâi detaliată de Reuters , WALEGESCY ORVOVESE O VERSE OF VERSE OF VERSIUNEA OFICIULUI REUTHENTUL Grok analizând datele federale. Mișcarea aprinde etica profundă, securitatea și potențialele alarme de conflict de interes pentru Musk și AI-ul său. Surse au indicat Reuters că Doge l-a folosit pe Grok pe plan intern și au încurajat adoptarea sa la Departamentul Securității Interne (DHS), în ciuda chatbot-ului lipsit de aprobare oficială acolo. Astfel de acțiuni ar putea încălca legile federale privind conflictul de interese dacă MUSK a direcționat personal promovarea lui Grok, care ar putea îmbogăți XAI.
Un purtător de cuvânt al DHS, cu toate acestea, a declarat pentru Reuters că agenția nu a împins angajații către niciun instrument specific. Casa Albă și Xai nu au răspuns la solicitările lui Reuters pentru comentarii.
Gizmodo a remarcat anterior că Grok este uneori „prea bine woke” pentru a fi răspunsuri. De exemplu, Xai a publicat sistemul Grok pe Github în mai 2025, după ce „modificările neautorizate” au dus la rezultate controversate cu privire la „genocidul alb” din Africa de Sud. Xai a atribuit acest lucru unui angajat necinstit și a anunțat noi procese de revizuire.
Integritatea datelor și influența temerilor de pene de montare
Introducerea Grok în sistemele guvernamentale este deosebit de tulburătoare, având în vedere recentele scurgeri de securitate ale lui Xai. La începutul lunii mai, s-a descoperit că un angajat Xai a publicat din greșeală o cheie API privată, expunând modele interne Grok timp de aproximativ două luni.
Unele dintre aceste modele au fost bine reglate cu date proprii SpaceX și Tesla. Philippe Caturegli de la Serals a descris Această expunere ca fiind evidențiată „Slab Key Management și Inssent Inssenthing INDENDENT.”Astfel de vulnerabilități amplifică temerile cu privire la securitatea datelor guvernamentale. A
lbert Fox Cahn al proiectului de supraveghere a tehnologiei de supraveghere a declarat pentru Reuters că, având în vedere accesul la date al lui Doge, folosind Grok prezintă „o amenințare la fel de gravă de confidențialitate pe cât obțineți”. Cinci specialiști în tehnologie și etică guvernamentală au declarat, de asemenea, Reuters că, dacă se folosesc date sensibile, acestea ar putea încălca legile de securitate și confidențialitate.
Experții au evidențiat, de asemenea, potențialul Xai pentru un avantaj competitiv neloial. Dacă datele guvernamentale se antrenează, sau dacă Musk obține informații despre contractarea federală, ar putea să ofere piața serviciilor AI.
Cary Coglianese, profesor de la Universitatea din Pennsylvania, a remarcat Reuters că Xai „are un interes financiar în a insista ca produsul lor să fie utilizat”. Inițiativa presupune că ocolește achizițiile standard și nu are autorizarea completă a agenției. Dacă Grok este instruit sau rafinat folosind date federale, chiar și indirect, acest lucru ar putea reprezenta o încălcare semnificativă a confidențialității.
Aceste preocupări sunt contextualizate în continuare de istoria mai largă a conflictelor de MUSK și de un tratament favorabil perceput, alături de succesul limitat al lui Doge în misiunea sa declarată. Acest lucru contrastează cu Openai și Antropic, care au parteneriate mai formale cu guvernul SUA.
Capabilitățile de evoluție ale lui Grok în mijlocul controverselor
În ciuda acestor probleme, Grok este poziționat ca AI capabil. Microsoft a adăugat modele Grok la Foundry-ul său AI AI tocmai recent. Această mișcare își propune să facă din Azure un cloud de premieră pentru diverse modele AI, chiar și pe cei de la concurenți până la partenerul cheie al Microsoft, OpenAI, cu care Musk are un feud legal în curs de desfășurare.
În timpul Microsoft Build, Elon Musk a declarat într-un videoclip, că modelele Xai „aspiră la adevăr cu o eroare minimă” și că este „incredibil de importantă pentru modelele AI pentru a fi la pământ cu o eroare minimă” și că este „incredibil de importantă pentru modelele AI pentru a fi la pământ cu o eroare minimă” și că este „incredibil de important pentru modelele AI pentru a fi la pământ cu o eroare minimă” și că este „incredibil de important pentru modelele AI pentru a fi la 3 să fie câteva greșeli care sunt făcute”. Grok 3 pe Azure acceptă o lungime a contextului de 131k jeton și este susținut de expansiunea semnificativă a supercomputerului Colossus.
Xai a dezvoltat activ Grok, lansând o caracteristică „memorie” în aprilie pentru Reclamă conversațională și Grok Studio pentru crearea de conținut colaborativ. Cu toate acestea, API-ul său comercial, lansat în aprilie, are limitări, inclusiv o reducere a cunoștințelor din 17 noiembrie 2024. Acest lucru ar putea afecta utilitatea sa pentru sarcinile guvernamentale care au nevoie de informații curente.
DHS a oprit deja accesul angajaților la toate instrumentele comerciale AI în mai 2025 din cauza problemelor de gestionare a datelor, iar Grok nu a fost printre instrumentele aprobate anterior pentru utilizarea limitată. Overreach
Implementarea Grok raportată face parte dintr-un efort mai larg al Doge pentru a încorpora AI în birocrația federală. În mișcarea sa de a reduce cheltuielile guvernamentale, echipa Doge a lui Musk a accesat baze de date federale sigure cu informații personale despre milioane de americani. Potrivit lui Reuters, inginerii Doge au instalat parametri personalizați pe Grok pentru a „alimenta seturi de date guvernamentale, a pune întrebări complexe și pentru a obține rezumate instantanee.”
personalul Doge, Kyle Schutt și Edward „Bilele mari”, au eforturi în frunte pentru a folosi AI pentru a găsi „deșeuri” și „fraude”. După cum a aflat Reuters, personalul Doge a încercat să acceseze e-mailurile angajaților DHS și a instruit personalul să instruiască AI pentru a identifica comunicațiile care sugerează neloialitate în agenda politică a administrației. Pentagonul a negat că echipa sa Doge a fost implicată într-o astfel de monitorizare sau a fost îndreptată să folosească Grok, afirmând că calculatoarele guvernamentale sunt supuse în mod inerent monitorizării.
Utilizarea AI pentru testele de loialitate politică ar putea încălca protecția serviciului public. Richard Painter a declarat pentru Reuters că statutul conflictului de interes este rar urmărit penal, dar poate duce la amenzi sau timp de închisoare.