EU 理事会は AI 法に最終的な同意を示し、ヨーロッパ全土に人工知能に関する先駆的な規制枠組みを導入することになりました。欧州委員会 (EC) が「リスクベースのアプローチ」を採用していると説明するこの法案は、社会に高いリスクをもたらす AI 製品に対してより厳格な規制を課すことを目的としています。EC の目的は、AI テクノロジーの安全性と透明性の両方を確保することです。

高リスク AI システムの規制

重要な分野や法執行機関で使用されているものなど、高リスクに分類される AI システムは規制対象となります。ベルギーのデジタル化担当国務長官マチュー・ミシェル氏は、これらのシステムは定期的な監査を受け、基本的権利への影響評価に合格し、中央データベースに登録される必要があると強調し、AI法は信頼、透明性、説明責任を重視していると強調した。

禁止されている AI 行為

AI 法は、認知行動操作など、危険すぎるとみなされるいくつかの AI 行為を明示的に禁止しています。ソーシャルスコアリング、およびプロファイリングに基づく予測ポリシング。さらに、人種、宗教、性的指向によって個人を分類するシステムは禁止されています。この法律は、将来の潜在的な汎用人工知能 (AGI) も対象としていますが、軍事、防衛、研究用途については例外を規定しています。

施行と世界的なコンプライアンス

2 年以内に発効する予定のこの法律には、新しい行政機関の設置と、専門家パネルがその実施を監督します。違反した場合は、世界の年間売上高の割合または所定の金額のいずれか高い方として計算された罰金が科せられます。 AI プラットフォームで EU の顧客データを使用する EU 外の企業も、これらの新しい規制に準拠する必要があります。弁護士のパトリック・ファン・エッケ氏は、他の国も一般データ保護規則 (GDPR) に似た同様の枠組みを採用する可能性があると指摘しました。

英国の AI 安全性への取り組み

関連する開発では、英国と韓国は、安全な AI モデルを開発するために、Amazon、Google、IBM、Microsoft、Meta を含む世界的な AI 企業 16 社からの約束を取り付けました。これらの企業は、最新モデルのリスクを評価し、悪用のリスクが高すぎる場合にはリリースを控えることに同意しています。この契約は、 昨年署名されたブレッチリー宣言を基礎にしており、AI開発における透明性と説明責任を確保することを目的としています。ただし、この協定には法的拘束力はありません。

EU の AI 法は、イノベーションを促進しながら安全性と透明性に焦点を当て、AI テクノロジーを規制するための大きな一歩を踏み出しました。この法律の影響は欧州を超えて広がることが予想され、世界規模で AI 規制に影響を与える可能性があります。

Categories: IT Info