OpenAI CEO の Sam Altman 氏と OpenAI の共同創設者で現在社長を務める Greg Brockman 氏は、Jan Leike 氏の辞任を受けて AI の安全性についての懸念に言及しました。彼らは、堅牢な安全プロトコルを確保するために、厳格なテスト、継続的なフィードバック、政府や関係者との協力に対する OpenAI の取り組みを強調しました。
リーダーシップの変更と安全性への懸念
Janイリヤ・サツケヴァー氏とスーパーアライメントチームを共同で率いていたライケ氏は、急速な進歩を優先するために安全性が後回しにされているとの懸念を表明し、辞任した。ライケ氏とサツケヴァー氏の退任は、安全性とイノベーションの優先順位をめぐる社内の意見の相違を浮き彫りにした。 1 年も前に設立されたスーパーアライメント チームは、超インテリジェント AI を管理する方法を模索する任務を負っていました。
ヤン ライク氏は、X (旧 Twitter) のスレッドで、会社のリーダーシップに同意できないと説明しました。ライク氏は、OpenAI の「安全文化とプロセスは近年、輝かしい製品よりも後回しになっている」と述べ、彼のチームは必要な情報を得るのに苦労していると述べた。
アルトマン氏は最初に短い回答で返答した。金曜日のライケ氏の投稿では、OpenAIには「やるべきことがまだたくさんある」、そして「それに全力で取り組んでいる」と認め、より長い投稿が予定されていると約束した。土曜日、ブロックマン氏は自分自身とアルトマン氏の両者からの共通の返信をXに投稿し、ライク氏の働きに感謝の意を表し、辞任後の質問に答えた。
私たちはジャン氏がしてくれたことすべてに本当に感謝している。 OpenAI、そして私たちは彼が外部からこのミッションに貢献し続けることを知っています。彼の辞任によって生じた疑問を考慮して、私たちが全体的な戦略についてどのように考えているかについて少し説明したいと思いました。
まず、私たちは… https://t.co/djlcqEiLLN
— グレッグ ブロックマン (@gdb) 2024 年 5 月 18 日
Brockman と Altman は、OpenAI が「ディープラーニングのスケールアップによる信じられないほどの可能性を繰り返し実証し、その影響を分析した」ことを強調しました。彼らは、安全性の取り組みを強化する方法として、「壊滅的なリスク」を予測し、その軽減を図る同社の準備フレームワークを挙げ、そのような呼びかけが普及する前に、人工知能 (AGI) の国際的なガバナンスを求めました。
今後の方向性と安全性の研究
アルトマン氏とブロックマン氏は、将来の AI モデルが現実世界のアプリケーションとより統合され、ユーザーに代わってタスクを実行できるようになると予想しています。彼らは、これらのシステムは大きな利点をもたらすと考えていますが、スケーラブルな監視やトレーニング データの慎重な検討などの基礎的な作業が必要になります。彼らは、たとえリリーススケジュールを遅らせることを意味するとしても、高い安全基準を維持することの重要性を強調しました。
アルトマンとブロックマンは、AGI への道を進むための確立されたガイドはないと述べて結論づけました。彼らは経験に基づく理解が今後の方向性を導くと信じており、潜在的な利益と深刻なリスクの軽減のバランスをとることに尽力しています。彼らは、さまざまな期間にわたる安全性研究と、政府や関係者との継続的な協力への取り組みを再確認しました。