この取り組みが開始された 7 月に、OpenAI、Google、Microsoft、Amazon、Anthropic、Inflection AI、Meta を含む米国の大手テクノロジー企業が自主的な保護措置に同意しました。このコミットメントは、安全性、セキュリティ、信頼性の 3 つのカテゴリに分類されており、現在の業界の最前線を超える生成モデルに適用されます。
主要なコミットメントの概要
両社は、AI の責任ある開発と展開を確実にすることを目的とした一連の措置に合意しました。
AI システムの内部および外部のセキュリティ テストを事前に実施する。彼らの解放。 AI リスクの管理について、業界全体および政府、市民社会、学術界と情報を共有します。独自のモデルや未リリースのモデルの重みを保護するために、サイバーセキュリティと内部関係者の脅威に対する保護策に投資します。サードパーティによる AI システムの脆弱性の発見と報告を促進します。透かし入れなど、AI によって生成されたコンテンツをユーザーが確実に識別できるメカニズムを開発します。 AI システムの機能、制限、適切な使用領域と不適切な使用領域を公的に報告する。有害な偏見、差別、プライバシーの問題など、AI によってもたらされる社会的リスクに関する研究を優先します。社会の大きな課題に対処するための AI システムの開発と導入。
国際協力と広範な取り組み
バイデン・ハリス政権は、オーストラリア、ブラジル、カナダ、ドイツ、インド、日本などの国々を含む国際パートナーとも積極的に協力しています。 、英国など。これらのコラボレーションは、AI の安全性と規制に対する統一的なアプローチを開発することを目的としています。また、政権は アメリカ人の権利と安全をさらに守るために、AI に関する大統領令に取り組んでいます。
これらの公約に加えて、バイデン・ハリス政権はAIの責任ある開発を確実にするためにいくつかの措置を講じました。これには、「AI サイバー チャレンジ」 を開始し、トップの AI 専門家や企業 CEO との会議を開催し、AI 権利章典の青写真を発行し、国立 AI 研究所.
「私たちが思慮深く慎重である限り、私たちは次のことを行うことができます。」 AI システムの安全、信頼性、倫理的な展開を確保します」と、NVIDIA の主任研究員である William Dally 氏は最近の上院証言で述べました。同氏は、AI 規制、国家安全保障への配慮、AI テクノロジーの潜在的な悪用のバランスを強調しました。