關於科技巨頭如何收穫AI的用戶數據的爭議日益加劇,艾倫AI研究所(AI2)引入了潛在的解決方案。他們的新模型架構FlexolMo,允許組織可以協作訓練AI,而無需共享敏感的原始數據

flexolmo在AI II訪問AI的私人數據中訪問有價值的私人數據:訪問有價值的私人數據。該方法旨在在醫療保健和金融等領域中促進安全數據協作,而隱私至關重要。該模型的代碼 fremmo 無妥協的協作AI的體系結構

Flexolmo背後的核心創新是其使用了Experts(MOE)架構的混合物。該框架將AI視為單一整體實體,而是將AI視為專家團隊。它允許採用一種新穎的分佈式方法來模型培訓,以避開中央數據存儲庫的需求。

not commo and proftolmo note””’這種冷凍的公共模型提供了一個穩定的基礎,這是一種通用語言,所有不同專家模塊都經過培訓以與之保持一致。這種協調是在沒有昂貴的聯合培訓的情況下成功合併它們的關鍵。

這與聯邦學習不同,通過允許異步培訓並為業主提供全面的退出控制。數據所有者可以在適合他們的本地私有數據集上訓練較小的專業“專家”模塊。

包含專業知識的專家模塊可以歸還給主Flexolmo模型,而無需原始數據,只要將所有業主的控制權留下。這種模塊化設計為貢獻者提供了前所未有的靈活性。

數據貢獻者可以隨時動態添加或刪除其專家模塊,從而有效地將其數據的影響選擇在需求中或從模型中移出。這使他們可以通過

在其

中沒有功能進行細粒度控制。

中沒有功能。推理期間對數據訪問的細粒度控制。 “該能力與標準AI訓練的永久性直接形成對比。

[嵌入式內容]

將數據控制放在測試中

任何模型共享方法的關鍵問題是原始訓練數據是否可以從模型的權重逆轉。 AI2通過對訓練有素的Flexolmo專家模塊進行數據提取攻擊模擬來主動解決此問題。

結果是有希望的。研究人員發現,較低的提取率僅為0.7%,這表明很難從貢獻的專家模塊中恢復有意義的私人信息。雖然不是零,但這種低率表明逐字記憶得到了顯著緩解。

這為潛在的協作者提供了一層保證。對於安全要求最高的組織,AI2指出該框架與差異隱私(DP)兼容,該技術添加了數學“噪聲”,以使其無法將數據追溯到個人。

數據所有者可以選擇使用DP方法來培訓其專家模塊以獲得這些正式的隱私保證。根據數據的敏感性,這提供了一系列安全選項。

通過將模型改進與原始數據共享分解,Flexolmo提出了可行的路徑。它為有價值的,孤立的數據集提供了一種方法,可以豐富更廣泛的AI生態系統,而無需強迫數據所有者放棄控制權,從而有可能解鎖安全和透明的AI協作的新時代。

在一個行業中及時解決了一個及時的解決方案。對其數據實踐的信任危機。新的建築似乎是對涉及大型科技公司的法律和道德挑戰的直接回應。

就在上週,法院下令Openai保留數十億美元的Chatgpt對話,包括這些用戶已刪除了《紐約時報》的版權訴訟。此舉引起了隱私倡導者的憤怒。

Google也一直在熱門座位上。該公司最近推出了Android更新,該更新允許其GEMINI AI默認情況下訪問第三方應用程序,從而超過了某些用戶的先前隱私設置。隨後,雙子座未經同意就可以訪問私人Google文檔。

同時,梅塔(Meta)面臨著重要的監管逆風。在愛爾蘭DPC的壓力下,它被迫在2024年暫時停止對歐盟用戶數據的AI培訓。隱私組織Noyb的創始人Max Schrems談到了這種情況:“ Meta新聞稿有點像“集體懲罰”。如果有歐洲人堅持他或她的權利,整個非洲大陸將不會獲得我們閃亮的新產品。 ”

這是在2024年9月對澳大利亞一家澳大利亞人探究的錄取之後的。梅塔(Meta)的全球隱私負責人梅琳達·克萊博(Melinda Claybaugh)在那裡證實,對於澳大利亞用戶,“確實會收集公共帖子,除非專門標記為私人,否則他們沒有提供像歐盟和我們的同行這樣的選擇退出機制。

這個問題擴展到了大型技術之外。 2025年5月,據透露,對5700萬NHS患者記錄進行了AI的培訓,這引起了人們對重新識別的擔憂。正如一位牛津大學研究人員指出的那樣,“人們通常想保持對數據的控制權,並想知道它的發展。”

同個月,人們對人類的Claude 4 AI產生了擔憂。研究表明,它可能會發展出緊急的“舉報”功能,自主向用戶報告感知的“不道德”行為,