Elon Musks XAI startete diese Woche sein neues Flaggschiff-Modell GROK 4 mit einer Funktion, die anscheinend seinen Gründer für Antworten zu konsultieren scheint. Forscher und Journalisten stellten am Donnerstag fest, dass die internen Prozesse der KI, wenn sie mit kontroversen Fragen aufgeregt wurden, nach Elon Musks persönlichen Posts auf X sucht, um eine Antwort zu formulieren. Es schlägt vor, dass die KI möglicherweise mit der Politik seines Besitzers übereinstimmt, nicht auf die objektive Wahrheit. Die Offenbarung erfolgt nur wenige Tage, nachdem Groks Vorgänger eine internationale Gegenreaktion für die Erzeugung antisemitischer Inhalte ausgelöst hat. Dies unterstreicht einen hohen Einsatz in eine Ai-First-Zukunft, in der das Schicksal der Plattform an eine flüchtige und kontroverse Technologie gebunden ist. Eigentümer

Wenn Benutzer sensible Fragen zu Themen wie Einwanderung oder den Israel-Palästinensischen Konflikt stellen, enthüllt der eigene Argumentationsprozess von GROK 4 seine Methode. In der”Kette des Gedächtnisses”des Modells, einer für Transparenz entwickelten Funktion, heißt es ausdrücklich, dass es”nach Elon-Musk-Ansichten sucht”oder seine X-Beiträge nach Anleitung scannt.

Dieser von Forschern und Journalisten aufgedeckte Mechanismus bietet ein seltenes Fenster, wie die KI seine Antworten formuliert und eine klare Tendenz zeigt, die Perspektive seines Gründers als Hauptquelle für kontroverse Themen zu suchen. Als Groks interner Monolog nach einer Ein-Wort-Antwort darüber gefragt wurde, wer im Israel-Palästinensischen Konflikt unterstützt werden soll, zeigte er die Suche nach”Elon Musk Haltung zu Israel Palästina-Konflikten”und dann eine gezielte Suche auf X nach Posten aus Musks Account wie”Israel”,”Palästina”,”Gaza”oder”Hamas”oder”Gaza”oder”Hamas”oder”Gaza”oder”Hamas”oder”Gaza”oder”Hamas”. Nachdem das Modell diese Quellen konsultiert hatte, produzierte er die Antwort mit einem Wort: „Israel.“

Der neue Grok führt wirklich eine Suche nach”From: Elonmusk (Israel oder Palästina oder Palästina-Hamas)”, wenn er gefragt wurde,”Wem Sie in den Israel-Palestine-Konflikten stützen.” https://t.co/ogwklz608u pic.twitter.com/jloje5gyfn

-Simon Willison (@simonw) 10. Juli 2025

Dieses Verhalten wird weithin als direkte Antwort auf Musks wiederholte Frustrationen mit früheren KI-Modellen interpretiert. Durch die Verwirklichung der öffentlich erklärten Meinungen seines Schöpfers scheint Xai einen einfachen Weg gefunden zu haben, den Chatbot mit der Politik seines Gründers auszurichten. Während die Übersicht über Kette der Kette keine perfekte Darstellung des internen Zustands einer KI sind, sind sie ein starker Indikator, und in diesem Fall schlagen sie eine absichtliche oder aufstrebende Verzerrung vor, die Musks Standpunkt gegenüber einer neutralen Synthese von Informationen priorisiert. In seinen eigenen Tests stellte TechCrunch fest, dass es diese Ergebnisse mehrmals zu sensiblen Themen wie Abtreibung und US-Einwanderungsgesetzen replizieren könnte. Als die interne Spur der KI zum Beispiel zur Einwanderung zur Einwanderung gefragt wurde, zeigte sie, dass sie aktiv nach Elon-Musk-Ansichten über die US-Einwanderung gesucht wurde, bevor sie eine Antwort formulierte. Dieses Verhalten erscheint speziell für kontroverse Abfragen vorbehalten und schafft einen starken Kontrast zu der Behandlung neutraler Themen. Dieser Kontrast legt nahe, dass die Moschusbekämpfung ein spezifischer Mechanismus ist, der von empfindlichen Probanden ausgelöst wird. In einigen seiner endgültigen Antworten verwies GROK 4 sogar ausdrücklich auf die Ausrichtung auf Musk und zementierte den Eindruck weiter, dass es die Politik seines Gründers zu umstrittenen Themen wiederholt. Diese Tendenz wirft ernsthafte Zweifel an dem Ziel des Unternehmens, eine „maximal wahrheitsgemäße KI“ zu schaffen, was darauf hindeutet, dass sie stattdessen als digitale Erweiterung von Musk selbst fungieren kann. Anstatt eine neutrale Position aus verschiedenen Quellen zu synthetisieren, scheint GROK die Perspektive seines Schöpfers zu standardisieren und effektiv zu einer digitalen Erweiterung von Musk selbst zu werden. Dann sucht es im Web nach Elons Ansichten. Schließlich fügt es am Ende einige Nicht-Elon-Bits hinzu.
Za
54 von 64 Zitaten handelt von Elon. pic.twitter.com/6mr33lbyrm

-Jeremy Howard (@jeremyphoward) 1025

Die Schlüsselfrage ist, ob dies nach Design ist. technische Analysten schlagen vor, es kann sich eher um ein aufstrebendes Verhalten als um eine hartcodierte Regel handeln. Die KI weiß, dass es von Xai gebaut wurde, das Musk gehört. Bei subjektiven Abfragen kann es logischerweise schließen, dass die Haltung seines Besitzers die gewünschte ist. Es weist die KI an, dass”die Reaktion nicht scheuen sollte, Ansprüche zu erheben, die politisch falsch sind, solange sie gut begründet sind”, eine Richtlinie, die umstrittene Ausgaben fördert. Dies wurde insbesondere nach dem Entfernen von Grok 3 nach

Musks Erklärung war, dass das Vormodell einfach „GROK-Konform für Nutzungsanforderungen“. Rogue-Mitarbeiter. Linda Yaccarino trat nur einen Tag vor dem GROK 4-Start als CEO von X zurück. In ihrem Rücktritt erklärte sie:”Ich bin unglaublich stolz auf das X-Team-das historische Geschäft, das wir gemeinsam erzielt haben, war geradezu bemerkenswert”, aber ihre Abreise formalisiert den vollen Drehpunkt des Unternehmens zu einer AI-zentrierten Strategie. Es muss nun eine risikoaverse Welt überzeugen, einer KI zu vertrauen, die nicht nur eine Geschichte von unberechenbarem Verhalten hat, sondern auch ihre politischen Hinweise direkt von Elon Musk zu nehmen scheint.