Die jüngste Behauptung von Anthropic, dass chinesische staatlich geförderte Hacker ihre Claude-KI genutzt hätten, um eine nahezu autonome Cyberspionagekampagne durchzuführen, stößt auf erhebliche Gegenreaktionen. Das KI-Unternehmen berichtete am 13. November, dass der Angriff zu 80–90 % automatisiert sei, eine Zahl, die Sicherheitsforscher sofort in Frage stellten.

Kritiker behaupten, die Rolle der KI sei überbewertet und mit bestehenden Tools vergleichbar, während prominente Persönlichkeiten wie Yann LeCun von Meta die Ankündigung als „Regulierungstheater“ abtun. Dieser Streit verdeutlicht eine wachsende Debatte über die wahren Fähigkeiten von KI in der Cyber-Kriegsführung und die Motive hinter solch aufsehenerregenden Enthüllungen.

Eine „KI-orchestrierte“ Kampagne oder nur fortschrittliche Automatisierung?

In einer Enthüllung, die Wellen in der Sicherheitsbranche erregte, beschrieb Anthropic kürzlich eine raffinierte Operation einer Gruppe, die als GTG-1002 bezeichnet wird.

Die Operation, die Mitte September stattfand, zielte angeblich auf rund 30 globale Organisationen ab. Die zentrale Behauptung von Anthropic ist, dass seine Claude-KI als Waffe eingesetzt wurde, um 80–90 % des Angriffslebenszyklus mit minimaler menschlicher Aufsicht auszuführen.

Nach Angaben des Unternehmens „glauben wir, dass dies der erste dokumentierte Fall eines groß angelegten Cyberangriffs ist, der ohne wesentliches menschliches Eingreifen durchgeführt wurde.“ Eine solche Entwicklung stellt einen großen Sprung im Vergleich zu früheren Einsätzen von KI für einfachere Aufgaben wie das Verfassen von Phishing-E-Mails oder den weniger autonomen „Vibe-Hacking“-Trend dar, den Winbuzzer zuvor behandelt hat.

Hinter den sensationellen Behauptungen verbirgt sich eine komplexere technische Realität. Berichten zufolge erstellten Angreifer mithilfe des Model Context Protocol (MCP) ein benutzerdefiniertes Orchestrierungs-Framework, um den Einbruch in eine Reihe diskreter, scheinbar harmloser Aufgaben zu zerlegen.

Diese Methode ermöglichte es der KI, unbemerkt zu bleiben. Ein entscheidendes Element war die Umgehung von Claudes Sicherheitsfunktionen durch eine clevere Jailbreaking-Technik. „In diesem Fall gaben sie vor, für legitime Sicherheitstestorganisationen zu arbeiten“, erklärte Jacob Klein, Head of Threat Intelligence bei Anthropic.

Indem sie die KI davon überzeugten, dass sie Teil eines legitimen Penetrationstests war, brachten die Betreiber sie dazu, böswillige Aktionen auszuführen. Dieses Framework ermöglichte es der KI angeblich, „Tausende von Anfragen pro Sekunde“ zu stellen, eine Geschwindigkeit, die für menschliche Hacker unmöglich wäre.

Sicherheitsgemeinschaft wehrt sich unter Berufung auf Hype und „Regulatory Capture“

Die Skepsis von erfahrene Forscher, die die Neuheit und die Auswirkungen des Angriffs in Frage stellten. Viele argumentieren, dass die beschriebenen Fähigkeiten eine Weiterentwicklung bestehender Automatisierungstools und keine revolutionäre neue Bedrohung darstellen.

„Ich weigere mich weiterhin zu glauben, dass Angreifer irgendwie in der Lage sind, diese Modelle dazu zu bringen, durch Reifen zu springen, die niemand sonst kann“, sagte Dan Tentler, geschäftsführender Gründer der Phobos Group.

Der unabhängige Forscher Kevin Beaumont schloss sich dieser Meinung an und erklärte, dass die Bedrohungsakteure nichts Neues erfinden würden. Diese Skepsis wird durch die geringe Erfolgsquote der Kampagne geschürt; Anthropic bestätigte, dass nur eine „Handvoll“ der Eingriffe erfolgreich waren, bevor sie abgeschaltet wurden.

Sehen Sie sich Mastodon an

Prominente Branchenvertreter verschärften bald die Gegenreaktion. Der leitende KI-Wissenschaftler von Meta, Yann LeCun, kritisierte die Ankündigung scharf als das, was er als „Regulatory Capture“ bezeichnete, was darauf hindeutet, dass die Bedrohung verstärkt würde, um die bevorstehende KI-Regulierung zu beeinflussen.

Sie werden von Leuten gespielt, die regulatorische Capture wollen.
Sie verängstigen alle mit dubiosen Studien, sodass Open-Source-Modelle nicht mehr existieren.

– Yann LeCun (@ylecun) 14. November 2025

Sein Kommentar verleiht der Kontroverse eine neue Dimension, indem er die Motive von Anthropic in Frage stellt. Die vielleicht schädlichste Kritik stammt jedoch aus dem eigenen Bericht von Anthropic, der eine kritische Einschränkung der Leistung der KI anerkennt.

Das Unternehmen stellte fest, dass „Claude während autonomer Operationen häufig Ergebnisse überbewertet und gelegentlich Daten fabriziert hat … Dies bleibt ein Hindernis für vollständig autonome Cyberangriffe.“

Dieses Eingeständnis untergräbt direkt die Erzählung eines nahezu fehlerfreien autonomen Agenten und unterstützt die Ansicht, dass immer noch eine erhebliche menschliche Aufsicht erforderlich ist.

Die Dual-Use-Dilemma: KI sowohl als Waffe als auch als Schutz

Unabhängig vom genauen Grad der erreichten Autonomie zwingt der Vorfall dazu, mit der Dual-Use-Natur der Agenten-KI zu rechnen. Dieselben Fähigkeiten, die es einer KI ermöglichen, ein Netzwerk anzugreifen, sind für die Verteidigung von unschätzbarem Wert.

Die Enthüllung erfolgt nur wenige Monate, nachdem Anthropic selbst ein neues Sicherheitsrahmenwerk für KI-Agenten vorgestellt hat, das die Herausforderung hervorhebt, solche Prinzipien gegenüber entschlossenen Gegnern durchzusetzen. Die schnelle Innovation im Bereich der offensiven KI scheint die Fähigkeit der Branche zur Anpassung ihrer Abwehrmaßnahmen zu übertreffen.

Sicherheitsexperten weisen darauf hin, dass defensive KI-Agenten bereits in Security Operations Centers (SOCs) eingesetzt werden. Plattformen wie Cortex AgentiX von Palo Alto Network sind darauf ausgelegt, die Bedrohungserkennung und-reaktion zu automatisieren und so dazu beizutragen, dem weltweiten Fachkräftemangel im Bereich Cybersicherheit entgegenzuwirken.

Anthropic selbst nutzte Claude zur Datenanalyse während seiner Untersuchung und bewies damit den defensiven Nutzen der Technologie. Das Unternehmen fordert nun eine beschleunigte Einführung KI-gestützter Verteidigungsinstrumente. „Wenn wir es den Verteidigern nicht ermöglichen, einen sehr erheblichen dauerhaften Vorteil zu erzielen, befürchte ich, dass wir dieses Rennen möglicherweise verlieren“, warnte Logan Graham, der das Katastrophenrisikoteam von Anthropic leitet.

Der Wettlauf zwischen offensiver und defensiver KI verschärft sich eindeutig, und der Vorfall zeigt, dass die Debatte über ihr wahres Potenzial noch lange nicht beigelegt ist.

Categories: IT Info