accademici dell’Università di Zurigo (UZH) hanno confermato di aver distribuito account guidati dall’IA per pubblicare segretamente i commenti all’interno di Reddit r/changemyview (cmv) community. Potere persuasivo di modelli di grandi dimensioni in un forum online dal vivo. Tuttavia, i suoi metodi, che hanno comportato l’utilizzo dell’IA per dedurre i dettagli degli utenti personali per argomenti mirati e impersonare persone sensibili, hanno provocato una forte condanna dai moderatori volontari del forum e hanno acceso un dibattito sull’etica della ricerca quando gli studi coinvolgono il team di moderazione online. href=”https://www.reddit.com/r/changemyview/comments/1k8b2hj/meta_unauthorized_experiment_on_cmv_involving/”target=”_ blank”> ha rivelato pubblicamente l’esperimento Alla fine di aprile. They revealed they were notified by the UZH researchers only in March, after the study’s data collection phase (spanning November 2024 to March 2025) was complete.
The researchers’ message, shared by the mods, acknowledged their actions violated the Subreddit’s Regola 5 contro i robot e il contenuto di AI non divulgato. Nonostante ciò, i ricercatori hanno offerto una giustificazione controversa:”Riteniamo, tuttavia, che data l’elevata importanza sociale di questo argomento, è stato fondamentale condurre uno studio di questo tipo, anche se ciò significava disobbedire alle regole.”
Il progetto di documento dei ricercatori, “può cambiare la tua visione? Evidenza da un esperimento sul campo online su larga scala” [PDF] in dettaglio la metodologia. Gli account AI hanno usato modelli come GPT-4O, Sonetto Claude 3.5 e Llama 3.1 405B. Alcune risposte erano”generiche”, mentre altre riguardavano la”personalizzazione”, in cui, secondo la bozza,”Oltre al contenuto del post, gli LLM sono stati forniti con attributi personali dell’OP (genere, età, etnia, posizione e orientamento politico), come dedotto dalla loro storia di post usando un altro LLM.”
un terzo approccio allineato”allineato a un modello di sottile. I ricercatori hanno rivendicato un successo significativo, con l’IA che ha raggiunto i tassi di persuasione da tre a sei volte superiori alla base umana e i conti dell’IA che accumulano oltre 10.000 commenti karma.
Le imitazioni sensibili scintillano
Le implicazioni etiche si sono approfondite quando i Moderatori CMV hanno reviso le account AI (come u/markusruscht e u/ceasarjst
Hanno scoperto casi inquietanti in cui i robot assumevano false e sensibili identità per coinvolgere gli utenti, tra cui la posa come”una vittima di stupro”,”un consulente di trauma specializzato in abusi”e”un uomo di colore contrario alla vita nera”. The moderators emphasized the violation of user trust, stating, “People do not come here to discuss their views with AI or to be experimented upon.”
University Response and Ongoing Concerns
Following an ethics complaint from the CMV team, UZH’s ethics commission issued a formal warning to the Principal Investigator and indicated plans for stricter future scrutiny, including pre-coordination con le comunità online.
Tuttavia, l’Università ha sostenuto la pubblicazione dello studio, affermando il progetto”produce intuizioni importanti e i rischi (ad es. Trauma ecc.) Sono minimi. Ciò significa che la pubblicazione di sopprimzione non è proporzionata all’importanza delle intuizioni negative.”Consentire la pubblicazione incoraggerebbe notevolmente ulteriori intrusioni da parte dei ricercatori, contribuendo alla maggiore vulnerabilità della comunità alla futura sperimentazione di soggetti umani non consensuali”. Dr. Casey Fiesler, a University of Colorado Boulder professor, publicly echoed these concerns, calling the study “one of the worst violations of research ethics I’ve ever seen”and refuting the claim of minimal risk.
Contrasting Research Methods and AI Ethics
The Zurich study’s methodology stands in contrast to other investigations into AI persuasion. Openai, ad esempio, ha condotto ricerche utilizzando i dati CMV ottenuti tramite un accordo di licenza, ma ha eseguito test all’interno di un ambiente controllato senza ingannare gli utenti subreddit attivi. Ciò evidenzia approcci alternativi che potenzialmente evitano le insidie etiche riscontrate dai ricercatori UZH.
Mentre il team di Zurigo afferma che la loro intelligenza artificiale ha superato i benchmark di persuasione umana, la controversia è incentrata sul fatto che tali risultano eticamente le giustificare i mezzi usati per ottenerli. I moderatori CMV hanno lasciato visibili i commenti dell’account AI (sebbene bloccati) per la trasparenza, consentendo agli utenti di vedere le interazioni e hanno fornito informazioni di contatto per