Google正在擴展其合成水印技術,以包括Google照片,並將不可見的數字標記添加到已使用AI驅動工具更改的圖像中。
這標誌著Google努力提高AI透明度的重要一步,因為AI輔助內容編輯變得更加複雜。本週推出的更新將適用於使用魔術編輯器修改的圖像,AI驅動的照片編輯功能在Pixel設備上可用。
Google決定將SynthID擴展到完全AI生成的圖像之外的決定呈現為擔心改變媒體的傳播。該公司以前在2024年10月在Google Photos中引入了基於元數據的AI標籤,但是此方法要求用戶手動檢查圖像詳細信息。現在,使用SynthID,隱藏的水印將嵌入像素級別,從而使從修改的圖像中剝離AI歸因更加困難。
SynthID的工作原理以及Google為何擴展
SynthID,由Google DeepMind開發,設計在不影響其視覺外觀的情況下標記AI生成和AI-AI-編輯的內容。與傳統的水印不同,通常在調整圖像大小或壓縮圖像時被刪除,SynthID會創建一個無形的標識符,該標識符在大多數標準編輯下仍可檢測到。
該技術最初用於跟踪Google Imagen 3型號創建的圖像,現在,其擴展到AI修飾的圖像旨在關閉AI內容驗證中的漏洞。
WaterMark將使用Google的“關於此圖像”工具可讀,該工具可為用戶提供有關圖像的起源和任何基於AI的修改的信息。但是,Google承認合成INSNTHID並不可靠-超級修改,例如攻擊性的裁剪或過濾,可能降低其有效性。
不斷增加的錯誤信息和AI透明度挑戰
在對AI產生的錯誤信息中的擔憂越來越多媒體已經用於政治運動,名人深層策略和欺騙性廣告。//arxiv.org/pdf/2310.00076.pdf”>馬里蘭州大學的研究發現,對抗技術通常可以從圖像中剝離AI水印,從而降低其作為身份驗證工具的可靠性。
Meta還引入了AI透明度措施,在Facebook和Instagram上的內容上增加了強制性的AI生成標籤。該公司在其視頻密封框架上邁出了額外的一步,該框架採用了即使經過修改後仍然存在的神經水印。
同時,微軟將可見的水印嵌入了來自Bing Image Creator的AI生成的圖像中,而OpenAI已在DALL-E 3創建的圖像中實現了C2PA元數據。透明度,它們還具有限制。可以將水印和元數據標籤刪除,更改或忽略,這使它們成為錯誤信息問題的不完整解決方案。在一個時代,這尤其令人擔憂,在這個時代,AI驅動的編輯工具比以往任何時候都更容易操縱數字媒體。
監管機構和政府都在推動AI問責制
SynthID的擴展不僅是Google的自願舉措,而且由於政府和監管機構的壓力增加,以確保AI生成的內容可識別。
在2023年10月,拜登政府發布了一項行政命令指示科技公司為AI生成的媒體建立更強大的水印和身份驗證系統。該命令引用了對AI驅動的選舉干擾,深層騙局和合成錯誤信息的迅速傳播的擔憂。
相比,《歐盟的AI法案》採取了更為嚴格的方法,要求公司清楚地標記AI AI。-生成的內容並實施檢測機制。該立法的最終版本於2024年7月發布,自本月以來有效,對不遵守內容身份驗證措施的公司施加罰款。
AI水印是否足夠?關於有效性的辯論
雖然Google向更高透明度擴展合成圖像的舉動是朝著更高的透明度擴展的一步,但並未完全解決AI生成的內容驗證的更廣泛問題。 AI水印,包括SynthID,Adobe的內容憑證和OpenAI的C2PA元數據,可以提供重要的數字簽名,但它們依賴於平台和用戶將檢查它們的假設。
一個主要問題是,水印是水印是並非總是持久。在網上共享之前,經常會更改,裁剪或重新處理AI生成的內容,當圖像上傳到社交媒體時,可以剝離基於元數據的標籤。結果,
雖然水印是一種有價值的工具,但許多專家認為,必須通過加密驗證方法和更強的出處跟踪來補充它。
“水印為透明度提供了價值,但具有價值他們沒有針對AI生成的內容操縱提供絕對的安全性。 >隨著AI生成的內容的興起,公司和監管機構正在探索超越水印的其他方法,而基於區塊鏈的出處跟踪和AI指紋構成的解決方案都在測試中,以創建更強大的內容驗證系統。
Google的最新擴展SynthID表明,科技公司正在認識到對AI含量認證的需求。