來自的深度偽造挑戰Facebook

一項最近的國際研究報告了一項關於人工智慧複製人臉能力的驚人發現。來自不同著名機構的一組研究人員,包括阿姆斯特丹大學阿伯丁大學的結論是,人工智慧生成的白人面孔被誤認為真實人臉的比率高於白人的實際照片。

人工智慧創建的圖像中的偏見

該研究旨在了解人們如何準確地區分人工智慧生成的人臉和真實的人臉,特別關注種族方面。一個重要的發現是,演算法主要使用白人影像進行訓練,創造了白色的人工智慧臉孔,人們認為這些臉孔比真實的臉孔更真實。在分析中,人工智慧生成的白人面孔中有66% 被識別為人類,而真實白人照片中的這一比例為51%。

人工智慧在影像辨識中的多種影響

除了白色人工智慧臉孔更易於識別的驚人發現之外,該研究還表明,對於有色人種,人工智慧生成的臉孔和照片之間的識別準確性沒有明顯差異。這種差異表明潛在的後果超出了技術領域,並涉及社會問題,例如用於尋找失踪兒童或提供在線治療等重要目的的圖像識別中的種族偏見。

在研究方法中,向白人成年參與者展示100 張人工智慧產生的白人面孔和100 張人類白人面孔,要求對每張臉孔進行分類人工智慧或人類的臉孔,並以最多 100 的範圍來表示他們對自己的決定的信心。參與者的種族背景似乎不會影響結果。研究的另一個組成部分涉及參與者對人工智慧和人類面孔的 14 個屬性進行評分,包括年齡和臉部對稱性,但不透露這些面孔是人工智慧生成的還是人類的。由此得出的結論是,臉部的熟悉度、可記憶性和比例主要影響人工智慧臉部作為人類的錯誤認知。

在防止偏見的同時推進人工智慧

合著者克萊爾·薩瑟蘭 (Clare Sutherland) 博士呼應了該研究的擔憂,強調了應對人工智慧系統中偏見的重要性。他們強調了確保人工智慧進步不會因種族、性別、年齡或其他識別特徵而無意中排除或使個人處於不利地位的緊迫性。研究團隊開發的機器學習系統能夠以94% 的準確率區分人工智慧生成的人臉和真實人臉,進一步說明了人類和人工感知之間複雜的相互作用。

人工智慧圖像具有潛在危險因為他們可以創造虛假或扭曲的內容,從而損害個人或群體的形象、隱私或安全。例如,深度偽造影片可以顯示人們做或說他們從未做過的事情,例如冒犯某人、承認犯罪或發生性行為。人工智慧圖像也可以用於出於有害原因複製某人的身份,例如間諜、欺騙或勒索。人工智慧圖像也會削弱新聞媒體、社群媒體平台或公眾人物等資訊來源的信任和可靠性。因此,了解人工智慧圖像的存在和潛在影響並檢查我們在網路上看到的內容的真實性和準確性非常重要。

Categories: IT Info