歐盟理事會最終批准了《人工智慧法案》,這標誌著在整個歐洲引入了開創性的人工智慧監管框架。歐盟委員會(EC) 將這項立法描述為採用“基於風險的方法”,旨在對給社會帶來更高風險的人工智慧產品實施更嚴格的監管。透明.

高風險人工智慧系統的監管

被歸類為高風險的人工智慧系統,例如用於關鍵部門和執法的人工智慧系統,將受到監管。 ,同時也支持歐洲內部的創新。人工智慧實踐,其中包括認知行為操縱、社會評分和基於分析的預測性警務。此外,禁止以種族、宗教或性取向對個人進行分類的系統。該法案也涵蓋未來潛在的通用人工智慧(AGI),但為軍事、國防和研究應用提供了豁免。/07/European-Commission-Flikr.jpg”>

實施和全球合規

該法案將於兩年內生效,包括建立新的行政辦公室和專家小組監督其實施。違規行為將導致以全球年營業額的百分比或預定金額(以較高者為準)計算的罰款。在其人工智慧平台中使用歐盟客戶資料的歐盟以外的公司也需要遵守這些新法規。律師Patrick van Eecke 指出,其他國家可能會採用類似的框架,類似《一般資料保護規範》(GDPR)。 >

在相關開發中,英國和韓國已獲得亞馬遜、谷歌、IBM、微軟和 Meta 等 16 家全球人工智慧公司的承諾,開發安全的人工智慧模型。這些公司已同意評估其最新型號的風險,如果誤用風險太高,則不會發布它們。本協議英國首相里希·蘇納克(Rishi Sunak) 表示,該峰會以去年簽署的《布萊切利宣言》為基礎,旨在確保人工智慧開發的透明度和問責制。然而,該協議不具有法律約束力。該法律的影響預計將超出歐洲範圍,可能影響全球範圍內的人工智慧監管。

Categories: IT Info