Meta通過 Frontier AI框架,旨在控制高風險AI系統的釋放的政策。
新框架引入了明確的邊界,該界限可能會阻止AI模型的發布,以至於釋放AI模型太危險了,以至於無法如此危險公開可用,表明與Meta先前的開放訪問策略不同。新方法是因為Meta對其強大的AI技術的潛在濫用(例如Llama Models。
歷史上)對AI採取了相對開放的方法,因此對其模型採取了相對開放的方法,從而使其模型易於訪問。但是,這種開放性導致了意想不到的後果,報導表明,對抗性參與者已將這些模型重新用於惡意目的,例如未經授權的面向防禦的聊天機器人的發展。
這些安全問題已導致Meta重新考慮其AI部署策略。通過引入Frontier AI框架,META旨在遏制與釋放可用於有害目的的AI系統相關的風險。 Meta寫道,
“通過此框架,我們將優先減輕災難性傷害的風險,確保我們的模型不用於在仍在實現進步和創新的同時將我們的模型用於意外的惡意目的。”
META基於風險的AI框架:高風險與關鍵風險
邊境AI框架將AI系統分為兩個不同的類別:高風險和危險風險。這兩種類別都由這些模型受到利用而可能造成的潛在危害來定義,但區別在於其後果的嚴重性。
高風險模型可能促進有害活動,例如網絡安全漏洞或有助於創造該創造但是,危險的生物劑或武器。在關鍵基礎設施上創建生物武器或全面網絡攻擊。
元數據決定限制對高風險系統的訪問,直到實施適當的保障是平衡AI創新與安全性的關鍵一步。正如公司強調的那樣:“我們認為,通過考慮如何開發和部署高級AI的決定和風險,可以將該技術交付給社會,從而將該技術的收益保留給社會,同時也可以保持適當的風險。”
元元從開放訪問AI
Meta的新策略轉變為開放式的較早立場是一個重要的關鍵AI。該公司已自由使用多年來的Llama模型,導致各種行業的廣泛使用。外部參與者出於意外的和潛在的有害目的,例如開發可能利用惡意目的的防禦工具。
詳細查看以前的開放訪問策略和元遇到的挑戰,請查看我們的文章,了解元文章中沒有告訴您有關“開源”模型的信息以及開源倡議的開源AI定義。為防止濫用技術可能對社會有害的技術的機制。”
實現這一目標,該框架不僅將AI模型按風險水平分類,而且還提供了一個明確的過程來確定高度的高度-風險模型將被處理。
高風險系統將僅限於內部訪問,並在更廣泛的部署之前進行了其他保障措施。危險風險的模型將面臨更嚴格的控制,包括在開發中完全停止,直到可以進行重新設計以減輕其潛在危險為止。
meta的方法與某些競爭對手相反。儘管像OpenAI這樣的公司選擇了對其模型的更受控的訪問,但Meta朝著限制訪問的行動進一步反映了人們對AI濫用的日益關注。
高風險與關鍵風險AI:什麼:什麼:這意味著Meta的AI開發
元之間的高風險和關鍵風險AI系統之間的區別對於了解公司將如何導航其模型的開發和部署至關重要。
高危AI系統(由META定義)可以促進網絡攻擊或協助創建有害生物劑。但是,這些模型的潛在影響可能會比關鍵風險系統不那麼嚴重,這些系統能夠造成無法控制的,廣泛的傷害。
這些關鍵風險系統可能會帶來災難性的後果,例如啟用這種後果生物武器的擴散或在關鍵基礎設施中造成重大破壞。
通過建立這種區別,元正在創建一個框架,有助於更有效地管理AI風險。正如Meta所指出的那樣,發布特定AI模型的決定將通過考慮其潛在利益和風險。
雖然Meta致力於公開發布其AI系統,但該公司承認在部署之前,必須仔細權衡與功能強大的AI工具相關的風險。
為什麼Meta現在現在實施這些限制,
引入邊境AI框架標記的引入META的轉折點。儘管公司一直是AI開發中開放性和可及性的擁護者,但其決定實施更嚴格的控制措施的決定是在與AI技術相關的風險變得更加明顯的時候。-ACCESS模型反映了對高級AI系統安全性和安全性的更廣泛的關注,這是通過最近發布的人類AI AI Safeguard System(稱為憲法分類器,旨在過濾傳入的提示和AI生成的響應。
似乎提出了越來越多的共識,隨著AI技術變得更加強大和普遍存在,風險會帶來風險與濫用的增加有關。
例如,使用元模型用於防禦相關目的的外國參與者的報告突出了釋放AI模型而沒有足夠保障的危險。與中國人民解放軍(PLA)相關的研究機構Llama-2024-11-01/“>使用Meta公開可用的Llama 型號開發了一個名為“ Chatbit”的AI工具。
通過介紹Frontuc AI Framework,Meta承認在開放訪問時承認可以促進創新,它也可能使該技術的潛在有害應用開放