Inmitten eines Zeitraums mit hoher Einsätze, in dem eine Unternehmensaberblichkeit von mehreren Milliarden Dollar, ehrgeizige Finanzierungsrunden und potenzielle Cloud-Partnerschaften beteiligt sind, hat Elon Musks künstliches Intelligenzunternehmen XAI eine signifikante Sicherheitsverletzung erlitten. Zugriff auf Dutzende von internen und unveröffentlichten Grok-Großsprachenmodellen (LLMs), Washington Post und Reuter. Reuters stellte ausdrücklich fest, dass das Doge-Team „im Rahmen ihrer Arbeit den Musk-Chatbot von Musk stark eingesetzt hat, um die Bundesregierung zu senken“ und potenziell sensible Daten zu analysieren. Das Leck, das wahrscheinlich von einem Entwickler zurückzuführen ist, der versehentlich die Schlüsseldatei begeht-die von einem Kommentator im Krebs-Artikel als potenzieller „Rookie-Fehler“ beschrieben wird-unterstreicht die operativen Herausforderungen bei der Sicherung starker AI-Entwicklungsumgebungen. Erstellt durch die Zusammenführung von XAI (80 Mrd. US-Dollar-Bewertung) und X (33 Mrd. USD, einschließlich Schulden) Ende März/Anfang April. Darüber hinaus werden Berichten zufolge Gespräche für Microsoft im Gange, um potenziell GROK-Modelle auf seiner Azure Cloud-Plattform zu hosten, ein Deal, das durch die Wahrnehmung der Sicherheitsreife von XAI beeinflusst werden könnte. Diese Entwicklungen in Kombination mit GROKs Geschichte kontroverser Ausgaben und Mäßigungsprobleme stellen XAI-Bestände nach der Exposition seines internen KI-Vermögens unter erhöhter Kontrolle.