5月14日的一項新的學術研究揭示,即使這些人為努力付出了代價,高級人工智能現在可以比人類更有效地說服人們。該研究發現,人類的Claude 3.5十四行詩LLM在在線測驗中的激勵人說服力大大優於激勵人類的說服者,善於指導參與者正確和錯誤的答案。這一發展強調了AI的快速增長,並放大了要求強大的治理框架。
這項研究,由Schoenegger等人進行。並在 積分的總體合規率高於其人類。這一發現至關重要,因為正如論文所指出的那樣,人類說服者有貨幣激勵措施,因此AI的出色表現不太可能僅僅是“無動力的人類比較的結果”。作者得出結論,這些結果表明“新興一致性和治理框架的緊迫性。 ”
特別是,在真實的說服中,LLM在對照組中提高了測驗者的準確性12.2個百分點,而人類則管理了7.8點。在欺騙性的情況下,LLM在誤導性方面更有效,與對照組的7.8點降低相比,在受人類影響時降低了15.1個百分點的精度。這是根據研究發生的,即使有91%的參與者與LLM互動將其識別為AI。該研究還承認,其發現是基於直接說服效應,並且沒有衡量長期的持久性。
AI日益增長的有說服力的邊緣
這些發現建立在越來越多的證據的基礎上,強調了AI的說服力。較早的 Salvi等人的研究。 Associate Professor Robert West from EPFL, commenting on that earlier work, warned, “The danger is superhuman like chatbots that create tailor-made, convincing arguments to push false or misleading narratives在線。 ”
OpenAi還通過說服研究進行了自己的內部測試,顯示其模型以人類說服者的最高百分比進行。 OpenAI首席執行官Sam Altman
新的Schoenegger等人。論文還指出,使用的Claude 3.5十四行詩模型是一個版本(Claude-3-5-sonnet-20241022),該版本本身已經在2024年6月20日發起的人類本身已經推出。該研究的作者建議LLM使用更語言複雜的信息可能有助於其說服力。 他們還指出,LLM的有說服力的優勢在連續的問題上略微縮小,這表明了潛在的用戶習慣。
進一步使安全性工作變得複雜,阿波羅研究(Apollo Research)的一項研究發現了OpenAI的第一個推理模型“ O1″能夠具有戰略性欺騙。挑戰在於利用AI的福利,同時減輕了深遠的操縱和錯誤信息的風險。
人類,在2024年4月 blaka fla的模型,在說服力上仍然沒有統計學上的說服力差異,也探索了欺騙性的說服技術。
,雖然該研究的方法論顯得很強,但其發現特定於Claude 3.5 SONNET和測驗的設置,這可能與許多現實世界中的composeant comportient comportient comporty comporty comportign
。 Concerns and Platform Responses
The potential for misuse of such persuasive AI is a significant concern, as demonstrated by a controversial University of Zurich (UZH) experiment that ran from late 2024 to early 2025. In that unauthorized study, AI bots on Reddit’s r/changemyview used scraped personal data and impersonated sensitive personas to sway opinions.
The UZH researchers’ draft paper detailed how LLMs were provided with personal attributes of users to tailor arguments.這導致了廣泛的譴責,R/ChangemyView主持人指出:“人們不會來這裡討論他們的觀點或進行實驗。”,道德專家凱西·菲斯勒(Casey Fiesler)博士稱實驗為“我見過的最糟糕的研究道德違規事件之一”。
exivieents宣布了一個宣布的範圍。首席執行官史蒂夫·霍夫曼(Steve Huffman)在公司中解釋了
雷迪特的首席法律官強烈譴責UZH團隊的行動,並指出:“這支蘇黎世大學團隊在道德和法律層面上所做的事情都深深地錯誤。它違反了學術研究和人權規範,除了Reddit的用戶協議和規則,並強加於SubReddit規則, 治理
Schoenegger等人強調了AI說服的越來越複雜。研究,將有效的AI治理和安全措施的必要性置於急劇的重點。研究人員自己強調了這些框架的緊迫性。當前的法規,例如歐盟的AI ACT和