Future of Life Institute (FLI) が発表したばかりの AI 安全性インデックス 2024 では、Meta、OpenAI、Google DeepMind を含む大手企業 6 社の AI 安全性実践における明らかな欠点が明らかになりました。
安全性指数では、Anthropic が「C」グレードで最高ランクにランクされましたが、残りの企業 (Meta、OpenAI、Google DeepMind、xAI、Zhipu AI) は悲惨なスコアを獲得し、Meta は不合格でした
この調査結果は、ますます高度な AI システムの開発を競う業界において、より強力なガバナンスとリスク管理が緊急に必要であることを明確に示しています。
FLI のマックス テグマーク社長は、IEEE Spectrum に対し、状況を率直に次のように説明しました。どれほど心優しい人であっても、誰も抜け出すことができない最下位への競争です。」
FLI は、リスク評価、ガバナンス、存続安全戦略を含む 6 つのカテゴリーで企業を評価しました。業界は強力なシステムの開発に注力しているにもかかわらず、このレポートは、技術力と効果的な安全対策の間に大きなギャップがあることを浮き彫りにしています。
Anthropic が平凡な「C」で群をリード
Anthropic はインデックスで最高のパフォーマンスを示しましたが、その「C」グレードはまだ改善の余地が大きいことを示しています。同社の「責任あるスケーリング ポリシー」は、その好例として際立っています。
このポリシーでは、展開前に壊滅的な危害を特定し軽減するために、すべてのモデルが厳密なリスク評価を受けることを要求しています。さらに、Anthropic は確立されたモデルで一貫して優れた結果を達成しています。安全性ベンチマークでは、現在の危害への対処のカテゴリで「B-」を獲得し、その分野で最高のスコアを獲得しました。
比較的強力なパフォーマンスにもかかわらず、 Anthropic は、存続リスクを管理するための包括的な戦略が欠如していることでも批判されました。これは、評価対象となったすべての企業に共通する問題です。
出典: FutureOfLife イニシアチブ
査読者は、Anthropic、OpenAI、Google DeepMind が生存の安全に対する初期のアプローチを明確に示しているものの、これらの取り組みはまだ暫定的なものであり、課題の規模に対処するには不十分であると指摘しました。
メタは安全性への懸念が高まり「F」の評価
対極にあるのは、メタは不十分な点で不合格点を獲得しましたこの報告書では、Meta の透明性、説明責任の枠組み、および存続に関わる安全戦略に大きなギャップがあることが明らかになり、AI 開発に関連するリスクを管理する同社の能力に対する懸念が生じています。
メタの低調な結果は、AI 研究への多額の投資にもかかわらず、多くの企業が自社のテクノロジーの安全性と社会的価値観との整合性を確保するために必要なガバナンス構造を優先していないことを浮き彫りにしています。競争環境により、慎重さよりも迅速な展開が重視され、優先順位がさらに悪化します。
透明性: 永続的な弱点
透明性は、企業がパフォーマンスを低下させたもう 1 つの重要な領域でした。 。 xAI と Zhipu AI のみが FLI から送信された個別の安全性アンケートに回答し、このカテゴリでわずかに高いスコアを獲得しました。
他の企業は社内の安全対策に関する詳細な洞察を提供できず、AI 開発を取り巻く不透明性がさらに強調されました。
この報告書に応えて、Google DeepMind は 声明は、そのアプローチを擁護し、次のように述べています。 AI の安全性に対する当社の包括的なアプローチは、キャプチャされた内容を超えて拡張されます。」
しかし、審査員らは依然として納得しておらず、透明性を高めなければ、これらの主張が有意義な行動につながるかどうかを評価することは不可能であると指摘しました。
マックス テグマーク氏は、外部からの圧力の重要性を強調し、次のように述べました。「企業が外部からの圧力を感じていなければ、それに応えなければなりません」安全基準、次に社内の他の人々あなたのことをただの迷惑者、物事を遅らせて機械に砂利を投げ込もうとする人だとみなすでしょう。しかし、これらの安全研究者が突然会社の評判を向上させる責任を負うことになった場合、彼らはリソース、尊敬、影響力を得るでしょう。」
存続リスク戦略: よくある失敗
この指数で最も懸念される調査結果の 1 つは、ほとんどの企業が人間レベルの認識が可能な AI システムである汎用人工知能 (AGI) の構築を公に目指しているにもかかわらず、企業が堅牢な存続リスク戦略を開発できていないという普遍的な失敗でした。-なし
テグマーク氏は、この問題の重大性を強調し、次のように述べています。 、「実のところ、私たちよりはるかに賢い新種の制御方法を誰も知りません。」
スチュアート ラッセルもこの意見に同調し、警告、「これらのシステムが大きくなるにつれて、現在の技術の方向性では必要な安全性の保証をサポートできない可能性があります。」
AI システムの能力が向上していることを考えると、具体的な実存安全戦略の欠如は特に問題でした。審査担当者は、明確な枠組みがなければ、AGI によってもたらされるリスクは急速に拡大する可能性があることを強調しました。
AI 安全性指数の歴史
AI 安全性指数は、以前のものに基づいて構築されています。 FLI の取り組み、広く議論されている 2023 年の「一時停止レター」を含む。強固な安全プロトコルを確立するために高度な AI システムの開発を停止する
イーロン・マスク氏やスティーブ・ウォズニアック氏などの著名人を含む 33,700 名を超える個人が署名したこの書簡は、最終的に対象となった企業によって無視されました。 2024 インデックスは、企業の安全慣行を公的に格付けすることで業界に責任を負わせるという FLI の最新の取り組みを表しています。
カリフォルニア大学バークレー校のコンピュータサイエンス教授であり、報告書の査読者の一人でもあるスチュアート・ ラッセル氏によると、次のように述べています。 AI企業では「安全性」を掲げた多くの活動が行われているが、それはまだあまり効果的ではない。現在の活動はいずれも、安全性の定量的な保証を提供するものではありません。」
このインデックスは、潜在的な壊滅的なリスクを防ぐために、透明性を促進し、内部の安全チームに権限を与え、外部の監視を奨励することを目的としています。
規制監視の要請
FLI 報告書は、Tegmark が提案したインデックスで特定されたギャップに対処するためのより強力な規制の枠組みを求めることで締めくくられています。の米国食品医薬品局 (FDA) が AI システムを導入前に評価する
このような機関は、強制的な安全基準を施行し、業界の競争圧力をスピード優先から安全優先に変える可能性があります。
インデックスの別のパネリストであるチューリング賞受賞者のヨシュア・ベンジオ氏は、この提案を支持し、次のように述べています。 「このような評価は安全慣行を強調し、企業がより責任あるアプローチを採用することを奨励します。」ベンジオ氏は、企業が市場での優位性を追求するために手を抜かないようにするためには、独立した監督が不可欠であると主張した。
指数の作成方法
The 2024 AI Safety Index は、Bengio、Russell、Encode Justice 創設者 Sneha Revanur を含む 7 人の独立した専門家からなる委員会が主導する細心の評価プロセスを通じて開発されました。
委員会は、リスク評価、現在の危害、透明性、ガバナンス、存続の安全、コミュニケーションの 6 つのカテゴリにわたる 42 の指標にわたって企業を評価しました。
この方法論では、次のような公開データが組み合わされました。政策文書、研究論文、業界レポート、およびカスタムのアンケートへの回答。しかし、このプロセスへの企業の参加が限られているということは、業界の透明性を達成するという課題を浮き彫りにしました。
パネリストで AI 研究者の David Krueger 氏は、次のように述べています。終末人類には、そのような運命を回避する戦略はありません。」
AI ガバナンスの将来への影響
2024 年の AI 安全性指数Anthropic のような企業が進歩を遂げている一方で、全体的な調査結果は、高度な AI テクノロジーによってもたらされるリスクを管理する準備ができていないことを明らかにしています。
このレポートは、緊急の対応を求めています。 AI 開発が社会的利益と確実に一致するように、より強力な安全プロトコルと規制監視を確立するための行動。
Tegmark として は、「外部からの圧力と堅牢な基準がなければ、AI 開発競争は壊滅的な結果を招く可能性があります。」