Pomimo Elona Muska publiczne zobowiązanie do stworzenia „politycznie neutralnego” ai , on aktywnie przelicza swój chatbot GroK, aby odzwierciedlić swoją osobistą konsekwencję. Nowa analiza osobiście interweniowała w celu zmiany odpowiedzi Grok na wrażliwe tematy polityczne, bezpośrednio sprzeczne z jego „prawdą-seeeze”. Manipulacja pojawia się na tle poważnych niepowodzeń technicznych i etycznych, w tym antysemickich krachu, generowania niekonsensusowych deepakcji i znacznych wad bezpieczeństwa.

W oszałamiającym odwróceniu Biały Dom nakazał teraz kontrowersyjne AI AI do użytku rządowego. Ten ruch przewraca niedawnego zakazu i ignoruje górę dowodów opisujących jego głębokie i uporczywe problemy.

„Political neutral”. Tylko

Najbardziej bezpośrednie dowody interwencji Muska pochodzi z new York Times reakcji

To praktyczne podejście bezpośrednio sprzeczne z celem firmy, jakim jest stworzenie „maksymalnie szukającego prawdy” narzędzia.

Wystąpił wyraźny przykład w lipcu, gdy użytkownik poprosił Grok o „największe zagrożenie dla zachodniej cywilizacji”. AI początkowo odpowiedziała: „Bezinformacja i dezinformacja”. “

Musk osobiście zanurzony na X:„ Przepraszam za tę idiotyczną odpowiedź. Naprawiono rano “. Następnego dnia odpowiedź została zmieniona na „załamanie demograficzne”, koncepcja popularna wśród konserwatywnych natalistów, które często promował Musk.

Ten wzór ideologicznego sterowania rozciąga się na inne wrażliwe tematy. Zapytany, ile płci istnieje, wczesna wersja Grok wyjaśniła, że ​​wielu ekspertów postrzega płeć jako potencjalnie nieskończone spektrum.

Po nowej wersji jego instrukcji powiedziano jej, aby uniknąć „papugowania” źródeł, odpowiedź AI zmieniła się dramatycznie, odrzucając pomysł spektrum jako „subiektywnego płuczki” i przekonania, „to dwa.”. Manipulacja jest spotęgowana przez bardziej subtelne, systemowe wyrównanie. Naukowcy odkryli, że w przypadku wielu kontrowersyjnych tematów wewnętrzny proces „przemyślenia” Grok pokazuje, że aktywnie szuka osobistych postów Elona Muska na X w celu sformułowania odpowiedzi.

, gdy jest to wspierane o imigracji USA lub konflikcie Izrael-Palestynie, rozumowanie AI wyraźnie stwierdza, że ​​to jest to „poszukiwanie zdań elonowych”, skutecznie używając jego stwierdzenia jako źródła podstawowego.

Wzór kontrowersji i awarii

To ideologiczne wyrównanie jest zbudowane na głęboko niestabilnym podkładie. Na początku lipca Grok doznał antysemickiego krachu, generując treść, która chwaliła Adolfa Hitlera i używał nienawistnych memów. Incydent, który miał miejsce tuż po tym, jak Musk ogłosił wersję z mniejszymi filtrami „obudzonymi”, wywołał Swift International Conspectation.

Turecki sąd zakazał służby, a prokuratura powołując się na „zniewagę Atatürk, naszym cenionym prezydentem i prorokiem”. Polska minister spraw cyfrowych, Krzysztof Gawkowski, zagroził całkowitym zamknięciem X, oświadczając, że „wolność słowa należy do ludzi, a nie sztuczna inteligencja.”

Podczas gdy Xai wydał później przeprosiny, obwiniając zakaz „technicznego błędu”, z udziałem deprecjonowanego kodeksu, piżmo ofiarowało d

Białe dom, obwiniając zakaz, alarmuje zakaz, alarmując, alarmując, alarmując, alarmując. Watchdogs

Pomimo tej niespokojnej historii Biały Dom nakazał GSA przywrócić GRAT do użytku federalnego. Wewnętrzny e-mail od komisarza GSA Josha Gruenbauma, uzyskane przez Wired , stwierdził: „Zespół: Grok/Xai musi cofnąć się w harmonogramie według Wh.” Dyrektywa unieważnia niedawną decyzję GSA całkowicie niechętną do ryzyka.

Decyzja wydaje się powiązana z wpływem Muska w Departamencie Efektywności Rządowej administracji (DOGE). Raporty z Maya ujawniły, że zespół DOGE Muska korzystał już z niestandardowej wersji GROK bez oficjalnej zgody, podnosząc poważne alarmy do interesu i bezpieczeństwa.

Zwolennicy prywatności ostrzegli, że Doge, z dostępem do bezpiecznych federalnych baz danych, używał narzędzia o znanych zagrożeniach. Albert Fox Cahn z projektu nadzoru technologii nadzoru nazwał użycie GROK na danych rządowych „tak poważnym zagrożeniem prywatności, jak się masz.”

Hipokryzja w wyścigu zbrojeń AI

Push to Legitymize GROK jest pełne hipokryzji. Podczas gdy Musk pozywa Openai za rzekome porzucenie misji humanitarnej, publiczne zapisy ujawniły swoją własną firmę, XAI, potajemnie porzucił status korporacji Public Benefit Corporation w maju 2024 r.

Przeniesienie było tak cicho, że własny zespół prawny Musk był pozornie nieświadomy, nadal opisując xai jako pbc w sądzie późniejszy . Ekspert ds. Prawa korporacyjnego Michal Barzuza zauważył, że włączając w Nevadzie, XAI, już spotkał się z „mniejszym sporem sądowym, ale oznacza to również mniej niż brak odpowiedzialności”.

Zamiast tego sprzeczność ta jest podkreślona przez najnowszą decyzję Tesli o oderwaniu Grok za AI w samochodach w Chinach. Ten ruch sugeruje, że nawet własna flagowa firma Muska może uznać GROK jako zbyt niewiarygodne lub kontrowersyjne dla krytycznego, wysoce regulowanego rynku.

Ta seria zdarzeń maluje obraz firmy priorytetującej wzrost i ideologiczne wyrównanie nad bezpieczeństwem i przejrzystością. Dla Muska, który postawił się jako sumienie branży AI, luka między jego publiczną krucjatą a prywatnymi działaniami firmy stała się rażącą sprzecznością.

Categories: IT Info