Googleは、人工的な一般情報(AGI)に対するグローバルな行動を推進しており、これらのシステムが人間の制御を超えて前進する前に、セーフガードを作成する緊急性を強調しています。 DeepMindによって昨日公開されたブログ投稿で、同社は3つの重要な柱を中心に構築された新しい国際安全フレームワークを明らかにしました。技術研究の強化、早期警戒システムの実施、ガバナンス団体を通じて国際協力を促進します。同社は、安全対策の必要性は遠い懸念ではなく、即時の挑戦であると強調しています。 「[A]私たちの戦略の重要な要素は、サイバー攻撃を可能にするものを含む誤用される可能性のある危険な機能へのアクセスを特定して制限することです。 AGIの開発が加速しているときに来ます。 Deepmindは、AGIを将来の可能性としてだけでなく、差し迫った現実としてフレーミングしており、今日の予防措置の必要性を強調しています。条約

技術的な革新を超えて、Deepmindは世界に及ぶ構造的変化を提唱しています。同社は、核不拡散協定と同様に、AGIシステムを評価する国際機関を確立することを提案しています。この組織は、グローバルなリスクを管理し、AGIの開発とテストのための標準化されたフレームワークを設定するのに役立ちます。

さらに、DeepMindは、国家レベルのリスク評価センターの作成を提案して、国が外国のAIシステムを独立して評価し、安全を確保できるようにします。 2024年初頭、同社はAGIのリスクに特に焦点を当てた新しい才能を導入しながら、既存のチームのいくつかを組み合わせて、新しいAI Safety and Alignment Organizationを設立しました。この内部焦点は、AIの責任ある開発を確保するためのGoogleのより広範なコミットメントに基づいています。

2023年4月、Google Deepmindは脳のチームをDeepMindと統合し、AI機能を進め、それらの進歩の安全性を確保する統一された研究エンティティを形成しました。この合併は、Geminiモデルファミリーの開発への道を開きました。これにより、Gemini 2.5 Pro Experimentalの最近のリリースで大幅にアップグレードされました。これは、高度な推論が可能な最新のマルチモーダルAIモデルです。この進歩は、DeepMindの成長能力を示し、そのような強力なシステムが責任を持って展開されることに焦点を当てています。他の主要なAIラボが同様の措置を講じ始めるにつれて到着します。 Deepmindの最も重要な競合他社の1人である人類は、2024年11月に同様の警告を発行し、Runaway AI開発を防ぐために18か月以内に迅速な行動をとるよう規制当局に促しました。人類はまた、米国エネルギー省の全国原子力安全保障局と協力しており、赤チームのエクササイズを実行して、クロードモデルを高セキュリティの環境でテストしています。このイニシアチブは、特にAIが国家安全保障に影響を与える可能性のあるコンテキストで、AIの安全性に焦点を合わせていることを強調しています。 2025年2月、同社は、モデルを「ハイリスク」および「クリティカルリスク」カテゴリに分割するフロンティアAIフレームワークでAI戦略のシフトを発表しました。メタは、クリティカルリスクモデルは、厳しい保護ガードが整っていない場合に公開されなくなると説明しました。

この決定は、悪意のあるスクリプトと不正な軍事チャットボットを生成する際のラマモデルの誤用に続きました。メタは、その目標はこれらのモデルに関連する壊滅的なリスクを最小限に抑えることであることを強調しました。

これらの動きは注意へのシフトを反映していますが、AIの発達とその潜在的な誤用との間にますます複雑な関係を示しています。より多くの企業が戦略を再調整するにつれて、DeepMindの提案は、業界がAGIの将来と格闘するため、より大きな注意のパターンに適合します。 2月、人類は、AIモデルからの敵対的なプロンプトと有害な出力を防ぐために設計された外部フィルタリングシステムである憲法分類器を立ち上げました。テストでは、分類器が脱獄の成功率を86%からわずか4.4%に引き下げたことが示されました。参加者のいずれも、AIシステムを封じ込めるように設計されたツールの洗練度の高まりを強調していませんでした。

は、安全へのコミットメントを促進し、3月に人類が解釈可能性フレームワークを開始し、クロードのようなモデルのようなモデルのようなモデルのようなモデルのような洞察を提供するツールとして「AI顕微鏡」と呼びました。神経活性化を分析することにより、モデルが情報を処理する方法を追跡し、潜在的に有害な動作を検出できます。 2024年12月に導入されたClioは、Claudeとの何百万もの会話を分析して、誤用のパターンを検出します。システムは、会話を処理する前に会話を匿名化することにより、プライバシーを優先します。 AIの行動を監視するためのこの積極的なアプローチは、AIシステムがより洗練されるにつれて、継続的な安全監視の必要性に対するDeepMindの強調と一致しています。 2月2日に施行された欧州連合のAI法は、「容認できないリスク」をもたらすとみなされる特定のAIシステムを禁止し、高リスクとみなされる人々に厳格な透明性要件を課しています。 OpenaiやMetaなどの企業は、これらの要件を満たすことを公にコミットしていますが、多くの企業はまだ完全に準拠していません。欧州委員会は、違反が違反に対する企業の世界的な収益の6%からの大幅な罰金をもたらす可能性があることをすでに示しています。しかし、TechCrunchが報告したように、人類はバイデン政権の初期に行ったいくつかの安全コミットメントを静かに巻き戻し、業界の自己規制の取り組みの一貫性について疑問を投げかけました。この背景は、ハードウェアと業界のパートナーシップのガードレール

ガードレール

AI安全性のドライブはソフトウェアだけに限定されていません。ハードウェア企業は、AIの安全インフラストラクチャの構築にも役割を果たしています。たとえば、Nvidiaは、2025年1月にNemo Guardrailsを導入しました。これは、有害なAI行動に対してリアルタイムの保護手段を提供するように設計された一連のマイクロサービスです。ツールには、コンテンツの安全フィルター、ジェイルブレイク検出、トピック制御が含まれます。これらはすべて、安全プロトコルに準拠していることを保証するために既存のモデルと協力して動作するように設計されています。 NVIDIAのエンタープライズAIモデルの副社長であるKari Briskiは、これらのシステムにより、低遅延性能を維持しながら、企業が「有害な出力からモデルを保護する」ことができると指摘しました。これらのテクノロジーを統合することにより、NvidiaはAIの将来の安全性の重要なプレーヤーとしての地位を確立しています。

ハードウェア企業とソフトウェア企業のコラボレーションは、AGIのリスクに対処するために業界全体で共有される集合的な責任を強調しています。 DeepMindのフレームワークはグローバルなガバナンス構造を提唱していますが、AIを確保するためのパスには、開発者とハードウェアプロバイダーの両方からの協調アクションが必要であることは明らかです。

Categories: IT Info