歐盟已於週四在布魯塞爾發布了最終的AI實踐守則。這些新的志願規則指導科技公司如何遵守《歐盟的主要AI法案》。該法規涵蓋了最強大的AI系統的安全性,透明度和版權。

它旨在在AI ACT在2026年實施全部適用性和執行之前為開發人員提供明確的規則。這是在歐盟拒絕大型技術公司的呼籲之後,以推遲該法案。歐盟希望在促進集團內的創新時安全地開發AI。

布魯塞爾堅定地反對行業推動“時鐘停留”

該代碼的發布是在與科技行業的緊張僵局之後的。 7月3日,包括空中客車,Mistral AI和西門子在內的45個歐洲巨頭的聯盟要求對AI法案進行兩年的“時鐘停留”。他們引用了有害的監管不確定性。

歐洲委員會的回應是迅速而果斷的。僅僅一天后,它坦率地拒絕了需求。委員會發言人托馬斯·雷格尼爾(Thomas Regnier)表示:“讓我盡可能清楚,沒有停止時鐘。沒有寬限期。沒有停頓。”結束了對延遲的任何猜測。這種公司的立場強調了歐盟對時間表的承諾。

這一最近的回音是一場長期辯論的一部分。早在2023年6月,有150家企業警告該法案太繁重了。壓力也是跨大西洋。美國政府於2025年4月提出了正式反對意見,認為規則草案過於審議。

一些歐洲領導人支持行業。歐洲議會的一名成員Aura Salla至關重要,並指出:“法規不應是歐盟的最佳出口產品。它會傷害我們自己的公司,”反映了對競爭力的擔憂。

自願工具,旨在幫助行業準備要求進行強制性合規性。它通過數百個利益相關者的投入開發,為滿足AI ACT複雜義務提供了實用的指導。

該文檔構成了三個不同的章節,每個章節都涉及一個關注的核心領域:透明度 proceyright> proceyright ,and href=“ https://ec.europa.eu/newsroom/dae/redirection/document/118119″ target=“ _ blank”>安全與保障。這種分層方法根據模型的潛在影響應用不同的規則。

透明度和所有

的版權,前兩章適用於所有通用AI模型的提供者。透明度章節規定了廣泛的文檔。開發人員必須使用標準化表格提供模型架構,培訓數據,能源使用和績效評估的詳細信息。

版權章為尊重知識產權提供了一個框架。它要求開發人員執行政策以遵守歐盟版權法。這包括尊重網絡刮擦中的退出,並採取步驟減輕模型產生侵權內容的風險。

最強大的模型的系統性風險

第三章,安全性和安全性,安全性,更為嚴格。它的規則是為最先進的模型保留的,被認為是對公眾施加“全身風險”。這是歐盟基於風險的監管策略的關鍵區別。

這些高影響力模型的提供商必須建立一個全面的安全和安全框架。這涉及持續的風險評估,對抗性測試以及向新成立的eu ai Office 。在強大的AI模型中,對監管機構的關注日益加劇。

儘管許多科技公司抗拒這些規則,但微軟卻涉及一致的策略。微軟總裁布拉德·史密斯(Brad Smith)最近強調,該公司的成功取決於歐洲信託基金會,並指出:“我們認識到,我們的業務在歐洲範圍內取決於維持客戶,國家和政府的信任,”作為尊重Bloc法律的更廣泛承諾的一部分。

AI AI ACT的推出已經開始。禁止“不可接受的風險” AI在2025年2月生效。 GPAI模型的關鍵規則在2025年8月適用,並在2026年進行了全面執行。

在聲明中,歐盟執行副總統內納·維克庫肯(Henna Virkkunen)表示,該政策是’在歐洲的最先進的階段,但在歐洲的最先進的範圍內,這是一個最重要的一步。對於歐洲的AI的未來。