Google drängt auf globale Maßnahmen zur künstlichen allgemeinen Intelligenz (AGI) und betont die Dringlichkeit, Sicherheitsvorkehrungen zu schaffen, bevor diese Systeme über die menschliche Kontrolle hinausgehen. In einem gestern von DeepMind veröffentlichten Blog-Beitrag enthüllte das Unternehmen einen neuen internationalen Sicherheitsrahmen, der rund drei wichtige Säulen basiert: die technische Forschung, die Implementierung von Frühwarnsystemen und die Förderung der internationalen Zusammenarbeit durch Governance-Körperschaften. Das Unternehmen betont, dass der Bedarf an Sicherheitsmaßnahmen kein fernes Problem darstellt, sondern eine unmittelbare Herausforderung.”[Ein] Schlüsselelement unserer Strategie ist die Ermittlung und Einschränkung des Zugangs zu gefährlichen Fähigkeiten, die missbraucht werden könnten, einschließlich derjenigen, die Cyber-Angriffe ermöglichen”, erklärte Deepmind in seinem

Über technische Innovationen hinaus setzt sich DeepMind für strukturelle Veränderungen ein, die den Globus erstrecken. Das Unternehmen schlägt vor, eine internationale Einrichtung zu etablieren, die AGI-Systeme bewerten würde, ähnlich wie bei Nichtverbreitungsvereinbarungen. Diese Organisation würde dazu beitragen, globale Risiken zu verwalten und einen standardisierten Rahmen für AGI-Entwicklung und-Test zu setzen. Anfang 2024 bildete das Unternehmen eine neue Organisation für Sicherheits-und Ausrichtungsorganisationen für KI und kombinierte mehrere seiner vorhandenen Teams und führte gleichzeitig neue Talente ein, die sich speziell auf AGI-Risiken konzentrierten. Dieser interne Fokus baut auf dem breiteren Engagement von Google auf, die verantwortungsvolle Entwicklung von KI sicherzustellen. Die Fusion ebnete den Weg für die Entwicklung der Gemini-Modellfamilie, bei der signifikante Verbesserungen mit der kürzlich veröffentlichten Veröffentlichung von Gemini 2.5 Pro Experimental-seinem neuesten multimodalen KI-Modell, das fortgeschrittene Argumentation in der Lage ist, erweitert zu werden. Dieser Aufstieg signalisiert die wachsenden Fähigkeiten von DeepMind sowie die Fokussierung darauf, dass solche leistungsstarken Systeme verantwortungsbewusst eingesetzt werden. Es kommt an, als andere wichtige KI-Labors ähnliche Schritte unternehmen. Anthropic, einer der bedeutendsten Konkurrenten von DeepMind, gab im November 2024 eine ähnliche Warnung heraus und forderte die Aufsichtsbehörden auf, innerhalb von 18 Monaten schnelle Maßnahmen zu ergreifen, um die Ausreißer-AI-Entwicklung zu verhindern. Anthropic hat auch mit der National Nuclear Security Administration des US-amerikanischen Energieministeriums zusammengearbeitet und rot-Teamübungen durchgeführt, um seine Claude-Modelle in hochsicheren Umgebungen zu testen. Diese Initiative betont den zunehmenden Fokus auf KI-Sicherheit, insbesondere in Kontexten, in denen KI sich auf die nationale Sicherheit auswirken könnte. Im Februar 2025 kündigte das Unternehmen eine Verschiebung seiner KI-Strategie mit dem Frontier AI-Framework an, das Modelle in Kategorien”Hochrisiko”und”kritisches Risiko”unterteilt. Meta erklärte, dass kritische Risikomodelle ohne strenge Schutzmaßnahmen nicht mehr öffentlich veröffentlicht würden. Meta betonte, dass sein Ziel darin besteht, katastrophale Risiken zu minimieren, die mit diesen Modellen verbunden sind. Während mehr Unternehmen ihre Strategien neu kalibrieren, passt DeepMinds Vorschlag in ein größeres Vorsichtsmuster, während sich die Branche mit der Zukunft von Agi auseinandersetzt. Im Februar startete Anthropic den konstitutionellen Klassifizierer, ein externes Filtersystem, mit dem kontuminarialen Aufforderungen und schädlichen Ausgaben aus seinen KI-Modellen verhindern sollen. Tests zeigten, dass der Klassifizierer die Erfolgsraten von Jailbreak von 86% auf nur 4,4% reduzierte. Keines der Teilnehmer gelang es, es vollständig zu brechen und die wachsende Raffinesse von Tools zu unterstreichen, die AI-Systeme enthalten sollen. Durch die Analyse neuronaler Aktivierungen kann es nachverfolgen, wie das Modell Informationen verarbeitet und potenziell schädliche Verhaltensweisen erfasst. Clio wurde im Dezember 2024 eingeführt und analysiert Millionen von Gesprächen mit Claude, um Missbrauchsmuster zu erkennen. Das System priorisiert die Privatsphäre durch Anonymisierung von Gesprächen vor der Verarbeitung. Dieser proaktive Ansatz zur Überwachung des KI-Verhaltens entspricht dem Schwerpunkt von DeepMind auf die Notwendigkeit einer kontinuierlichen Sicherheitsüberwachung, wenn KI-Systeme anspruchsvoller werden. Das AI-Gesetz der Europäischen Union, das am 2. Februar in Kraft trat, verbietet bestimmte KI-Systeme, die als „inakzeptable Risiken“ angesehen werden, und veranlasst strenge Transparenzanforderungen für die als Hochrisiko, die als Hochrisiko gelten. Unternehmen wie OpenAI und Meta haben sich öffentlich verpflichtet, diese Anforderungen zu erfüllen, obwohl viele noch nicht vollständig einhalten müssen. Die Europäische Kommission hat bereits darauf hingewiesen, dass die Nichteinhaltung zu hohen Geldstrafen führen könnte-bis zu 6% des globalen Einkommens eines Unternehmens für Verstöße. Wie von TechCrunch berichtet, hat Anthropic jedoch in den frühen Tagen der Biden-Verwaltung immer wieder mehrere Sicherheitsverpflichtungen zurückgegriffen und Fragen zur Konsistenz der selbstregulierenden Bemühungen der Branche aufgeworfen. Dieser Hintergrund bereitet die Voraussetzungen für die Forderung von DeepMind nach stärkerer Governance. Hardwareunternehmen spielen auch eine Rolle beim Aufbau von KI-Sicherheitsinfrastruktur. Nvidia beispielsweise führte NEMO-Leitplanken im Januar 2025 vor, eine Reihe von Mikrodiensten, die Echtzeitschutz gegen schädliche KI-Verhaltensweisen bieten sollen. Die Tools umfassen Inhaltssicherheitsfilter, Jailbreak-Erkennung und Themenkontrolle, die alle für die Zusammenarbeit mit vorhandenen Modellen entwickelt wurden, um sicherzustellen, dass sie mit Sicherheitsprotokollen konform bleiben. Kari Briski, Vizepräsident von Enterprise AI-Modellen bei NVIDIA, stellte fest, dass diese Systeme es Unternehmen ermöglichen, „ihre Modelle gegen schädliche Ausgaben zu sichern und gleichzeitig die Leistung mit geringer Latenz beizubehalten. Durch die Integration dieser Technologien positioniert sich NVIDIA als wichtiger Akteur in der zukünftigen Sicherheit von AI. Während DeepMinds Rahmen für eine globale Governance-Struktur einsetzt, ist klar, dass der Weg zur Sicherung von KI konzertierten Maßnahmen von Entwicklern und Hardwareanbietern erfordert.