Der gerade veröffentlichte AI Safety Index 2024 des Future of Life Institute (FLI) hat deutliche Mängel in den KI-Sicherheitspraktiken bei sechs führenden Unternehmen aufgedeckt, darunter Meta, OpenAI und Google DeepMind.
Die KI Safety Index stufte Anthropic mit der Note „C“ am höchsten ein, aber die übrigen Unternehmen – Meta, OpenAI, Google DeepMind, xAI und Zhipu AI – erhielten schlechte Bewertungen, wobei Meta völlig durchfiel.
Die Ergebnisse unterstreichen die dringende Notwendigkeit einer stärkeren Governance und eines stärkeren Risikomanagements in einer Branche, die um die Entwicklung immer fortschrittlicherer KI-Systeme kämpft.
FLI-Präsident Max Tegmark beschrieb die Situation gegenüber IEEE Spectrum unverblümt: „Ich habe das Gefühl, dass die Führungskräfte dieser Unternehmen in der Falle sitzen in einem Wettlauf nach unten, aus dem keiner von ihnen herauskommen kann, egal wie gutherzig er ist.“
Die FLI bewertete die Unternehmen in sechs Kategorien, darunter Risikobewertung, Governance und existenzielle Sicherheitsstrategien. Obwohl sich die Branche auf die Entwicklung leistungsstarker Systeme konzentriert, hebt der Bericht eine erhebliche Lücke zwischen technologischen Fähigkeiten und wirksamen Sicherheitsmaßnahmen hervor.
Anthropic liegt mit einem mittelmäßigen „C“ an der Spitze
Anthropic schnitt im Index am besten ab, obwohl die Note „C“ darauf hindeutet, dass es noch erhebliches Verbesserungspotenzial gibt. Als positives Beispiel stach die „verantwortungsvolle Skalierungspolitik“ des Unternehmens hervor.
Diese Richtlinie erfordert, dass alle Modelle strengen Risikobewertungen unterzogen werden, um katastrophale Schäden vor dem Einsatz zu erkennen und abzumildern. Darüber hinaus hat Anthropic bei etablierten Modellen durchweg gute Ergebnisse erzielt Sicherheits-Benchmarks, was ihm ein „B-“ in der Kategorie „Bekämpfung aktueller Schäden“ einbrachte, die höchste Punktzahl in diesem Bereich.
Trotz seiner relativ starken Leistung ist Anthropic Kritisiert wurde zudem das Fehlen einer umfassenden Strategie zur Bewältigung existenzieller Risiken – ein Problem, das alle bewerteten Unternehmen teilten.
Quelle: FutureOfLife-Initiative
Die Gutachter stellten fest, dass Anthropic, OpenAI und Google DeepMind zwar erste Ansätze für existenzielle Sicherheit formuliert haben, diese Bemühungen jedoch noch vorläufig und unzureichend sind, um das Ausmaß der Herausforderung zu bewältigen.
Meta erhält eine „F“, da Sicherheitsbedenken zunehmen
Am anderen Ende des Spektrums erhielt Meta die Note „nicht bestanden“ für seine unzureichenden Governance-und Sicherheitspraktiken. Der Bericht identifizierte große Lücken in den Transparenz-, Rechenschaftsrahmen-und existenziellen Sicherheitsstrategien von Meta. Das Fehlen sinnvoller Sicherheitsmaßnahmen hat Bedenken hinsichtlich der Fähigkeit des Unternehmens geweckt, die mit seinen KI-Entwicklungen verbundenen Risiken zu bewältigen.
Das schlechte Abschneiden von Meta zeigt ein umfassenderes Problem innerhalb der Branche auf. Viele Unternehmen haben den Governance-Strukturen, die erforderlich sind, um sicherzustellen, dass ihre Technologien sicher sind und mit gesellschaftlichen Werten in Einklang stehen, keine Priorität eingeräumt Das belohnt einen schnellen Einsatz statt Vorsicht.
Transparenz: Eine anhaltende Schwachstelle
Transparenz war ein weiterer kritischer Bereich, in dem die Unternehmen unterdurchschnittlich abschnitten. Nur xAI und Zhipu AI füllten die vom FLI verschickten maßgeschneiderten Sicherheitsfragebögen aus und erzielten in dieser Kategorie etwas höhere Punktzahlen.
Die anderen Unternehmen haben es versäumt, detaillierte Einblicke in ihre internen Sicherheitspraktiken zu geben, was die Undurchsichtigkeit, die die KI-Entwicklung oft umgibt, noch weiter unterstreicht.
Als Reaktion auf den Bericht gab Google DeepMind eine Verteidigungserklärung ab In seinem Ansatz heißt es: „Während der Index einige der KI-Sicherheitsbemühungen von Google DeepMind berücksichtigt und branchenübliche Benchmarks widerspiegelt, geht unser umfassender Ansatz zur KI-Sicherheit über das hinaus, was erfasst wird.“
Allerdings ist der Die Gutachter waren nicht überzeugt und wiesen darauf hin, dass es ohne größere Transparenz unmöglich sei, zu beurteilen, ob diese Behauptungen in sinnvolle Maßnahmen umgesetzt werden.
Max Tegmark betonte die Bedeutung von externem Druck und bemerkte: „Wenn ein Unternehmen keine Gefühle hat Wenn Sie externen Druck ausüben, Sicherheitsstandards einzuhalten, werden andere Leute im Unternehmen Sie nur als Ärgernis betrachten, als jemanden, der versucht, die Dinge zu verlangsamen und Kies in die Maschinerie zu werfen. Aber wenn diese Sicherheitsforscher plötzlich dafür verantwortlich sind, den Ruf des Unternehmens zu verbessern, dann sind sie es’ll Erhalten Sie Ressourcen, Respekt und Einfluss von Unternehmen, robuste existenzielle Risikostrategien zu entwickeln. Während die meisten Firmen öffentlich danach streben, künstliche allgemeine Intelligenz (AGI) zu schaffen – KI-Systeme, die zu kognitiven Fähigkeiten auf menschlicher Ebene fähig sind – hat keines umfassende Pläne entwickelt, um sicherzustellen, dass diese Systeme weiterhin mit menschlichen Werten im Einklang bleiben.
Tegmark betonte dies Der Ernst dieses Problems warnt: „Die Wahrheit ist, dass niemand weiß, wie man eine neue Spezies kontrolliert, die viel schlauer ist als wir.“
Stuart Russell wiederholte diese Meinung und warnte: „Je größer diese Systeme werden, Es ist möglich, dass die aktuelle Technologierichtung niemals die notwendigen Sicherheitsgarantien unterstützen kann.“
Das Fehlen konkreter existenzieller Sicherheitsstrategien war angesichts der zunehmenden Fähigkeiten von KI-Systemen besonders besorgniserregend. Die Gutachter betonten, dass ohne klare Rahmenbedingungen die von AGI ausgehenden Risiken schnell eskalieren könnten.
Geschichte des AI Safety Index
Der AI Safety Index baut auf früheren auf FLI-Initiativen, einschließlich des viel diskutierten „Pausebriefs“ für 2023, der eine vorübergehende Pause forderte Stoppen Sie die Entwicklung fortschrittlicher KI-Systeme, um robuste Sicherheitsprotokolle zu etablieren.
Der Brief, der von über 33.700 Personen unterzeichnet wurde, darunter prominente Namen wie Elon Musk und Steve Wozniak, wurde letztendlich von den Unternehmen, auf die er abzielte, ignoriert Der Index 2024 stellt den jüngsten Versuch des FLI dar, die Branche durch die öffentliche Bewertung von Unternehmen hinsichtlich ihrer Sicherheitspraktiken zur Rechenschaft zu ziehen.
Laut Stuart Russell, einem Informatikprofessor an der UC Berkeley und einer der Gutachter des Berichts: „Die Ergebnisse deuten darauf hin, dass es bei KI-Unternehmen zwar viele Aktivitäten gibt, die unter der Überschrift ‚Sicherheit‘ stehen, diese jedoch noch nicht sehr effektiv sind.“ Keine der aktuellen Aktivitäten bietet irgendeine quantitative Sicherheitsgarantie.“
Der Index zielt darauf ab, Transparenz zu fördern, interne Sicherheitsteams zu stärken und externe Aufsicht zu fördern, um potenziell katastrophale Risiken zu verhindern.
Ein Aufruf zur Regulierungsaufsicht
Der FLI-Bericht endet mit der Forderung nach strengeren Regulierungsrahmen, um die im Index festgestellten Lücken zu schließen. Tegmark schlug die Schaffung einer Aufsichtsbehörde ähnlich vor Die Die US-amerikanische Food and Drug Administration (FDA) soll KI-Systeme vor ihrem Einsatz bewerten.
Eine solche Behörde könnte verbindliche Sicherheitsstandards durchsetzen und den Wettbewerbsdruck der Branche von der Priorität auf Geschwindigkeit hin zur Priorität verlagern.
Das Jahr 2024 Der AI Safety Index wurde durch einen sorgfältigen Bewertungsprozess entwickelt, der von einem Gremium aus sieben unabhängigen Experten geleitet wurde, darunter Bengio, Russell und Encode Justice-Gründerin Sneha Revanur. Das Gremium bewertete die Unternehmen anhand von 42 Indikatoren in sechs Kategorien: Risikobewertung, aktuelle Schäden, Transparenz, Governance, existenzielle Sicherheit und Kommunikation. Die Methodik kombinierte öffentliche Daten, wie z Richtliniendokumente, Forschungspapiere und Branchenberichte mit Antworten auf einen benutzerdefinierten Fragebogen. Die begrenzte Beteiligung von Unternehmen an diesem Prozess verdeutlichte jedoch die Herausforderungen bei der Schaffung von Transparenz in der Branche. David Krueger, Diskussionsteilnehmer und KI-Forscher, bemerkte: „Es ist erschreckend, dass genau die Unternehmen, deren Führungskräfte KI vorhersagen, dies könnten.“ Am Ende hat die Menschheit keine Strategie, um ein solches Schicksal abzuwenden ernüchterndes Bild des aktuellen Stands der KI-Governance Während Unternehmen wie Anthropic Fortschritte machen, zeigen die Gesamtergebnisse, dass sie nicht auf die Bewältigung der Risiken vorbereitet sind, die von fortschrittlichen KI-Technologien ausgehen. Der Bericht fordert dringende Maßnahmen Führen Sie strengere Sicherheitsprotokolle und eine behördliche Aufsicht ein, um sicherzustellen, dass die KI-Entwicklung mit den gesellschaftlichen Interessen in Einklang steht. Tegmark bemerkte: „Ohne externen Druck und solide Standards könnte der Wettlauf um die Entwicklung von KI zu einer Katastrophe führen.“ Konsequenzen.”Wie der Index zusammengestellt wurde