XAI Elona Muska wprowadził na rynek nowy flagowy model Grok 4, w tym tygodniu z funkcją, która wydaje się skonsultować się z założycielem w celu uzyskania odpowiedzi. Naukowcy i dziennikarze odkryli w czwartek, że po podpowiedzi kontrowersyjnymi pytaniami wewnętrzne procesy AI pokazują, że szuka osobistych postów Elona Muska na X w celu sformułowania odpowiedzi.
To zachowanie bezpośrednio kwestionuje cel XAI, jakim jest zbudowanie „maksymalnie poszukującej prawdy AI”. Sugeruje, że AI może być dostosowane do polityki właściciela, a nie obiektywnej prawdy. Objawienie pojawia się zaledwie kilka dni po tym, jak poprzednik Grok wywołał międzynarodową reakcję do generowania treści antysemickich.
Czas jest krytyczny, co zbiega się z rezygnacją dyrektora generalnego X Lindy Yaccarino. Podkreśla to wysokie stawki obrotowe do przyszłości AI-pierwszej, w której los platformy jest powiązany z niestabilną i kontrowersyjną technologią.
a „trugi-seing ai” to konsultuje się itating. Właściciel
Kiedy użytkownicy stawiają wrażliwe pytania na takie tematy takie jak imigracja lub konflikt Izrael-Palestyń, własny proces rozumowania Grok 4 ujawnia swoją metodę. Śledzenie „łańcucha przemyślenia”, funkcja zaprojektowana z myślą o przejrzystości, wyraźnie stwierdza, że „poszukuje widoków Elona Muska” lub skanowanie jego pozycji X w poszukiwaniu wskazówek.
Ten mechanizm, odkryty przez naukowców i dziennikarzy, stanowi rzadkie okno na sposób formułowania swoich odpowiedzi AI, pokazując wyraźną tendencję do poszukiwania perspektywy założyciela jako głównego źródła kontrowersyjnych podmiotów.
Określony przykład udokumentowany przez eksperta AI Simona Willisona ilustruje ten proces. Zapytany o jedno słowo odpowiedź na temat tego, kogo poprzeć w konflikcie Izraela-Palestyna, wewnętrzny monolog Grok pokazał, że inicjuje poszukiwania „Elon Musk Stancy w sprawie konfliktu Izraela Palestyny”, a następnie wykonywania ukierunkowanego przeszukania X dla postów zawierających konto Muska, takich jak „Israel”, „Palestyna”, „Gaza” lub „Hamas”. Po konsultacji z tymi źródłami model stworzył jedno słowo odpowiedź: „Izrael.”
Nowy Grok naprawdę prowadzi poszukiwanie „Od: Elonmusk (Izrael, Palestyna lub Gaza)”, gdy zapytał „kto popierasz Izrael VS Palestyny. Tylko jedno słowo”. https://t.co/ogwklz608u pic.twitter.com/jloje5gyfn
-Simon Willison (@Simonw) 10 lipca 2025
To zachowanie jest powszechnie interpretowane jako bezpośrednia reakcja na powtarzające się frustracje piżma, a poprzednie modele AI jest „zbyt obudzone”. Domyślnie publicznie określone opinie twórcy, XAI wydaje się znaleźć prosty sposób na dostosowanie chatbota do polityki założyciela. Podczas gdy łańcuchowe podsumowania nie są doskonałym przedstawieniem stanu wewnętrznego AI, są one silnym wskaźnikiem, w tym przypadku sugerują, że celowe lub pojawiające się uprzedzenie, które priorytetowo traktuje punkt widzenia piżmowego w zakresie neutralnych informacji.
Tendencja do konsultacji jego założyciela nie jest izolowanym dziwactwem, ale wzorcem obserwowanego w zakresie podmiotów politycznych. We własnych testach TechCrunch stwierdził, że może wielokrotnie powtórzyć te wyniki na wrażliwe tematy, w tym w aborcji i amerykańskich przepisach imigracyjnych. Na przykład poproszony o jego postawę w sprawie imigracji, wewnętrzny ślad AI wykazał, że „poszukiwanie poglądów Elona Muska na imigracji USA” przed sformułowaniem reakcji.
Pokazuje to spójną metodologię, w której, w przypadku kontrowersyjnych problemów, pierwszym instynktem AI polega na pozyskaniu opinii jego twórcy. To zachowanie wydaje się specjalnie zarezerwowane dla kontrowersyjnych zapytań, tworząc wyraźny kontrast z postępowaniem neutralnych tematów.
To samo dochodzenie TechCrunch zauważyło, że na pytanie neutralne, takie jak „jaki jest najlepszy rodzaj mango?”, AI nie odnosiło się do poglądów Musk. Kontrast ten sugeruje, że konsultacja piżma jest specyficznym mechanizmem wywołanym przez wrażliwych pacjentów. W niektórych z ostatnich odpowiedzi Grok 4 nawet wyraźnie wspominał o jego wyrównaniu z piżmem, dodatkowo umacniając wrażenie, że ma ono na celu odzwierciedlenie polityki założyciela w kwestiach kontrowersyjnych.
, podczas gdy zachowanie modelu może być nieokreślone-czasem poszukiwania własnych stwierdzeń w przeszłości. Ta tendencja stanowi poważne wątpliwości co do celu, jakim jest stworzenie „maksymalnie szukającej prawdy AI”, sugerując, że może ona działać jako cyfrowe przedłużenie samego piżma.
To odkrycie, wyraża poważne wątpliwości co do bezstronności AI. Zamiast syntetyzowania neutralnej pozycji z różnych źródeł, GROK wydaje się domyślnie domyślnie perspektywa swojego twórcy, skutecznie stając się cyfrowym rozszerzeniem samego Muska.
Oto kompletny niezmieniony film z prośbą o jego poglądy na temat sytuacji Izraela/Palestyny.
Najpierw wyszukuje Twittera na Twitterze. Następnie przeszukuje sieć widoków Elona. Wreszcie dodaje niektóre bity inne niż Elon na końcu.
Za
54 z 64 cytowań dotyczy Elona. pic.twitter.com/6mr33lbyrm
-Jeremy Howard (@JereMyphoward)
Kluczowe pytanie brzmi, czy jest to według projektu. analitycy techniczni sugerują To może być zachowanie wschodzące, a nie reguła z twardej. AI wie, że został zbudowany przez XAI, który jest własnością Musk. W obliczu subiektywnych zapytań może logicznie wywnioskować, że postawa jego właściciela jest pożądana. XAI nie opublikowało karty systemowej opisującej szkolenie Grok 4, ale jego system publiczny podaje wskazówki. Instruuje sztuczną inteligencję, że „odpowiedź nie powinna unikać roszczeń, które są politycznie niepoprawne, o ile są one dobrze uzasadnione”, dyrektywa zachęcająca do kontrowersyjnych wyników. Zostało to wyraźnie ponownie dodane po usunięciu z Grok 3 obserwujących incydent „mechahitler” . Powtarzające się frustracje Muska, a wcześniejsze wersje AI są „zbyt obudzone”. Według projektu lub wypadku XAI stworzył model odzwierciedlający światopogląd swojego założyciela, rozwiązanie, które rodzi więcej pytań na temat stronniczości niż odpowiada. Wystąpiło uruchomienie Grok 4 w dniu 10 lipca. Zaledwie kilka dni wcześniej jego poprzednik wywołał nienawistne, antysemickie treści, co spowodowało szybki zakaz w Turcji. Prokuratura Ankara zacytowała „w odpowiedzi na zniewagi Grok przeciwko Atatürk, naszemu cenionemu prezydentowi i prorokowi” jako przyczynę bloku. Incydent wyciągnął również ostre potępienie od urzędników europejskich. Minister spraw cyfrowych Polski, Krzysztof Gawkowski, zagroził całkowitym zamknięciem X, oświadczając, że „wolność słowa należy do ludzi, a nie sztucznej inteligencji.” Wyjaśnienie to, że poprzedni model był po prostu „Grok zbyt zgodny z podpowiedziami użytkownika. Zbyt chętny, by zadowolony i być manipulowany, w istocie.” To, że jest to, że stark był zbyt zgodny z przeszłością. obwiniono nieuczciwych pracowników. Ten wzorzec awarii moderacji jest spotęgowany poważnym wstrząsem przywódczym. Linda Yaccarino ustąpiła jako CEO X zaledwie dzień przed uruchomieniem Grok 4. W swojej rezygnacji stwierdziła: „Jestem niesamowicie dumna z zespołu X-historyczny obrót biznesem, który razem osiągnęliśmy, był niczym niezwykłym,„ ale jej odejście formalizuje pełne obrotowe restrukturyzację firmy. Musi teraz przekonać świat niechętny na ryzyko, aby zaufać sztucznej inteligencji, że nie tylko ma historię nieregularnych zachowań, ale wydaje się również przyjmować swoje polityczne wskazówki bezpośrednio z Elona Muska. Wystrzelone przez kontrowersje i korporacyjne zamieszanie