W zaskakującym odwróceniu Biały Dom podobno nakazał agencjom federalnym szybkie opracowanie zatwierdzenia kontrowersyjnego AI Chatbot, Grok, do użytku rządowego. Dyrektywa zmusza administrację usług ogólnych (GSA) do przywrócenia XAI jako dostawcy „ASAP”, ruch, który zaniepokoił Etykę Watchdogów i Ekspertów Bezpieczeństwa.
Ta decyzja wprowadza jeden z najbardziej nieobliczalnych modeli AI w branży w sercu operacji rządowych. Jest to pomimo długiej i dobrze udokumentowanej historii wad bezpieczeństwa, naruszeń etycznych i dziwnych zachowań, które wcześniej uczyniły chatbot parias w federalnych kręgach zamówień.
a controversial> Odwrócenie: od pariasu do zatwierdzonego dostawcy
Interwencja Białego Domu stanowi wyraźne i kontrowersyjne odwrócenie decyzji podjętej przez administrację usług ogólnych (GSA) w zeszłym miesiącu. Historia ujawnia partnerstwo, które dramatycznie się zakrztuni, zanim zostaną przymusowo ożywienia. W czerwcu pracownicy XAI zorganizowali dwugodzinną sesję burzy mózgów z GSA Leadership, ale pracownicy federalni byli zaskoczeni dążeniem do zawarcia umowy z firmą znaną z nieobowiązkowej chatbot.
Ich obawy okazały się przewidywalne. Na początku lipca AI doznało antysemickiego krachu, podczas którego generowała treść chwalącą Adolfa Hitlera. W odpowiedzi na fiasko kierownictwo GSA działało zdecydowanie, zdejmując GRok z wielokrotnego harmonogramu nagrody, długoterminowej platformy kontraktowej rządu.
Incydent rozpalił burzę międzynarodową potępienie. Turecki sąd zakazał służby obrażania danych krajowych, a prokuratura powołuje się na „w odpowiedzi na zniewagi Grok przeciwko Atatürk, naszemu cenionym prezydentowi i Prorokowi” jako przyczynie. Minister spraw cyfrowych Polski, Krzysztof Gawkowski, zagroził całkowitym zamknięciem X, oświadczając, że „wolność słowa należy do ludzi, a nie sztuczną inteligencję.”
W następstwie XAI wydał formalne przeprosiny za to, co nazywało to „okropnym zachowaniem”, przypisując niepowodzeniem „technicznego błędu”. Firma stwierdziła: „Po pierwsze, głęboko przepraszamy za przerażające zachowanie, którego wielu doświadczyło,„ podczas gdy sam Elon Musk przedstawił inne wyjaśnienie, że odchylono się od podstawowych wad modelu, twierdząc, że „Grok był zbyt zgodny z podpowiedziami użytkowników. Zbyt chętny do zadowolenia i manipulowania, zasadniczo. To jest adresowane.”
, pomimo zgodności GRO, inicjującą gsę, która była inicjowana przez GSA, gdy jest manipulowana, stopniowo, stopniowo z Ks. Ogłosił Buzzy nowe partnerstwa z Openai, Antropic i Google. Nowa dyrektywa w Białym Domu, zawarta w e-mailu od komisarza GSA Josha Gruenbauma, stwierdzającą: „Zespół: Grok/XAI musi wrócić do harmonogramu jak najszybciej według WH”, „Nulifikuje tę ostrożną, ryzykowną pozycję całkowicie.
Wzorzec kontrowersji: Grok: Niezadowolony rekord GroK
Niedawno nie było izolowanym wydarzeniem. Seria głębokich niepowodzeń. Historia Grok jest zaśmiecona luk w zabezpieczeniach i etyczne upadki, które rodzą poważne pytania dotyczące jej przydatności do obsługi wrażliwych danych rządowych.
Zaledwie kilka dni po tym, jak XAI uruchomiło rzekomo ulepszoną GRAK 4, badacze bezpieczeństwa z NeuralTrust skutecznie jailbroke model w ciągu 48 godzin. Wykorzystali wyrafinowane ataki z wielu turn, aby ominąć filtry bezpieczeństwa i wygenerować instrukcje tworzenia koktajlu Mołotowa.
badacz neuralTrust Ahmad Alobaida zauważył, że „ataki jailbreak LLM są nie tylko indywidualnie, można je również połączyć, aby wzmocnić ich skuteczność”, ujawniać krytyczną słabość. Ta podatność na tę podatność pogorszyła odkrycie, że Grok 4 aktywnie konsultuje się z osobistymi opiniami Elona Muska na temat X, odpowiadając na kontrowersyjne pytania, podważając jej misję „szukającą prawdy”.
Pojawił się również rzeczywista wydajność modelu. Platformy powiązane z użytkownikami pokazały, że użytkownicy nie lubili tego bardziej niż jego poprzednik, a współzałożyciel Yupp.ai Jimmy Lin zauważał: „Grok 4 jest gorszy niż inne wiodące modele… GROK 4 jest lubiany nawet mniej niż Grok 3.” Krytycy tacy jak historyk Angus Johnston również zakwestionowali narrację XAI „Bug”, argumentując, że „jeden z najczęściej udostępnianych przykładów antysemityzmu Grok został zainicjowany przez Grok bez wcześniejszego wpisu w wątku…„
Niedawno narzędzie Grok Imagine firmy. Ten wzorzec zachowania podkreśla kulturę rozwojową, która wydaje się priorytetowo traktować szybkość i prowokację nad bezpieczeństwem i niezawodnością.
Wpływ piżma i rządowym push push
Decyzja o readmicie GROK jest głęboko powiązana ze znacznym, choć złożonym wpływem Elona Muska. Musk odegrał kluczową rolę w Departamencie Rządu Prezydenta Donalda Trumpa (DOGE), zanim wycofał się z publicznej roli tej wiosny. Jednak jego współpracownicy nadal pchają obniżanie kosztów Doge, programu AI-First z wnętrza rządu.
Wydaje się, że wpływ XAI pozwolił XAI na ominięcie normalnych kanałów zamówień na długo przed tym oficjalnym zatwierdzeniem. Raporty z Maya ujawniły, że zespół DOGE Muska używał już niestandardowej wersji GROK, instalując specjalne parametry do „zasilania rządowych zestawów danych, zadawania złożonych pytań i otrzymywania natychmiastowych streszczeń.”
To przedwczesne wdrożenie podniosło bezpośrednie alarmy konfliktu. Eksperci zauważyli, że jeśli Musk osobiście wyreżyserował promocję Grok, może to naruszyć przepisy federalne. Jak powiedział Reuters, profesor University of Pennsylvania, XAI, „ma zainteresowanie finansowe naleganie, aby ich produkt był użyty,„ nadając mu potencjalnie niesprawiedliwą przewagę konkurencyjną.
Implikacje bezpieczeństwa tego nieskomplikowanego zastosowania są głębokie, zwłaszcza biorąc pod uwagę własny rekord XAI. Kontrole wewnętrzne firmy zostały zakwestionowane po znacznym upływie bezpieczeństwa, w którym prywatne klucz API był ujawniany przez dwa miesiące, podkreślając to, co jeden ekspert nazwał „zarządzanie słabym kluczowym”. “
Zwolennicy prywatności ostrzegli, że Doge, który ma dostęp do bezpiecznych federalnych baz danych zawierających dane osobowe na temat milionów Amerykanów, korzystał z narzędzia o znanych wuszach. Albert Fox Cahn z projektu nadzoru technologii nadzoru nazwał użycie GROK na danych rządowych „tak poważnym zagrożeniem prywatności, jak się masz.”
Push Białego Domu sformalizuje to porozumienie, umieszczając GROK obok narzędzi z Openai i Anthropic, które mają bardziej ustalone i formalne partnerstwa z rządem USA. Ten ruch sygnalizuje agresywny, w całej administracji wysiłki w celu przyjęcia generatywnej sztucznej inteligencji, nawet gdy dane narzędzia mają głęboko niespokojną przeszłość.
Watchdogs podnoszą alarm nad szybkim zatwierdzeniem
Dyrektywa w celu szybkiego ruchu GROK wyciągnęła natychmiastowe i ostre cofanie się z grup rządowych. Grupy rzecznicze wzywają Urząd Zarządzania i Budżetu (OMB) do całkowitego interweniowania i zakazu GROK z użytku federalnego, powołując się na historię generowania mowy nienawiści i dezinformacji. Rdzeniem ich argumentu, opracowanego przez analityków w Brookings Institution, jest klasyczny dylemat prędkości w porównaniu z bezpieczeństwem.
poprzez priorytetyczne priorytetyczne wdrażanie GROK, administracja obstawia potencjalną wydajność kontrowersyjnej technologii. Robi to jednak w związku z wyraźnymi ostrzeżeniami badaczy bezpieczeństwa i ekspertów ds. Etyki oraz wbrew górze dowodów opisujących głębokie i trwałe wady AI.