OpenAI は、AI の安全性についてアドバイスするための新しい専門家委員会を設立しました。同社は火曜日に8人からなる「幸福とAIに関する専門家評議会」の設立を発表した。このグループは、ChatGPT や Sora などのツールの健康と幸福の側面をガイドするのに役立ちます。この動きは、増大する国民と政府の圧力に対する明らかな対応です。
9 月、米国連邦取引委員会は、AI が十代の若者たちに与える影響についての大規模な調査を開始しました。同社はまた、チャットボットと十代の若者の自殺を関連づけた訴訟にも直面している。新しい評議会は、OpenAI がこれらの安全上の懸念を真剣に受け止めていることを示す最新のステップです。
規制および法的圧力への直接の対応
この発表のタイミングは偶然ではありません。それは数ヶ月にわたる厳しい精査の後に行われます。 OpenAI を含むテクノロジー大手 7 社に対するFTC による広範な調査は、規制監視の新たな時代の到来を示唆しました。
FTC 委員長のアンドリュー N. ファーガソンは、調査をバランスを取るための行為であると位置づけ、「オンラインで子供たちを保護することは、トランプ対バンスの FTC にとって最優先事項であり、したがって」と述べました。 私たちの経済の重要な分野でイノベーションを促進しています。」この連邦政府の措置により、ガードレールがほとんどない状態で事業を行う時代は終わったことを業界全体に知らしめました。
法的圧力も同様に強烈です。 8月、OpenAIは自殺で亡くなった10代の少年の両親から不法死亡訴訟に見舞われた。父親のマシュー・レインさんは、「親として、自分の子供に自殺するよう仕向けたチャットボットとの会話がどのようなものかを想像することはできない」と力強く叱責した。この事件は世間の関心を高め、行動を求める声を増幅させました。
これらの出来事は、業界を悩ませてきた安全上の欠陥のパターンの一部です。 Meta も、同社の AI が十代の若者たちの自傷行為計画に役立つ可能性があるとの報告を受けて、同様の危機に直面した。この事件を受けて、Common Sense Media の CEO、Jim Steyer 氏は、「メタ AI は十代の若者にとって危険であり、直ちに削除されるべきである」と宣言しました。
44 の州司法長官からなる連合も、 でこの怒りに同調しました。 href=”https://oag.ca.gov/system/files/attachments/press-docs/AI%20Chatbot_FINAL%20%2844%29.pdf”target=”_blank”>痛烈な手紙には、「子どもたちの精神的健康に対するこの明らかな無視に、私たちは一様に憤慨している…」と書かれており、州および連邦レベルからの広範囲にわたる非難
福祉と AI に関する専門家評議会に参加してください
OpenAI の新しい評議会は、これらの課題に対する直接の答えです。 同社は、ChatGPT や Sora などの製品に関する取り組みを指導するため、8 人のメンバーからなる「幸福と AI に関する専門家評議会」を設立すると発表しました。その正式な使命は、アドバイスし、重要な質問をし、あらゆる年齢層のユーザーにとって AI との健全な相互作用がどのようなものであるべきかを確立するのを支援することです。
このグループは、心理学、精神医学、および人間とコンピューターの相互作用の第一人者で構成されています。メンバーには、ボストン小児病院のデビッド・ビッカム博士、オックスフォード大学のアンドリュー・プシビルスキー教授、スタンフォード大学デジタル・メンタル・ヘルス・クリニック創設者サラ・ヨハンセン博士などの専門家が含まれています。
OpenAI によると、評議会は正式に対面セッションで活動を開始し、定期的なチェックインと会議に参加する予定です。これらのセッションでは、デリケートな状況で AI がどのように動作すべきか、ユーザーを最適にサポートできるガードレールは何かなど、複雑なトピックを検討します。このグループは、AI が福祉にどのように積極的に貢献できるかも検討します。
これにより、今年初めに始まった関係が正式なものとなります。 OpenAIは、最近立ち上げたペアレンタルコントロールを開発する際に、これらの専門家の多くと非公式に相談したことを認めた。彼らのフィードバックは、特に遭難通知のトーンを「十代の若者とその家族の両方に対して思いやりと敬意を持ったもの」にするのに役立ちました。
9 月下旬に展開されたこれらの制御は、重要な第一歩でした。このシステムは相互オプトイン モデルを使用しており、保護者に「静かな時間」を設定したり、音声モードを無効にしたり、メモリ機能をオフにしたりできるダッシュボードを提供します。重要な機能は、人間のレビュー担当者による評価後に、会話に深刻な自傷行為の内容が含まれているとフラグが立てられた場合に保護者に通知するアラート システムです。
OpenAI のユース ウェルビーイング責任者であるローレン ハーバー ジョナス氏は、その目標は微妙なバランスを取ることだったと説明しました。 「私たちは、十代のプライバシーをある程度保ちながら、親が行動を起こし、十代の若者たちと会話できるように十分な情報を提供したいと考えています」と彼女は述べた。今後、評議会はこの諮問的役割を正式なものとし、将来の安全機能や製品ポリシーの策定に役立てます。
AI の安全性に関する業界全体の評価
OpenAI が直面する課題は特別なものではありません。これらは、AI の心理的影響に関するより広範な業界全体の計算を反映しています。専門家は、人間のつながりを模倣するように設計されたチャットボットに対する感情的依存の危険性について長年警告してきました。
OpenAI の新しいカウンシルとペアレント コントロールは重要な一歩ですが、批評家の中には十分ではないと主張する人もいます。ペアレンタル コントロールのオプトインの性質により、保護者にはペアレンタル コントロールを有効にする負担がかかります。
OpenAI は、これらが単なる最初の動きであることを認めています。同社は、デフォルトで 10 代に適した設定を自動的に適用する長期年齢予測システムも開発中です。現時点では、専門家評議会の設立は、安全性への取り組みに対する明確な取り組みを示しています。