Les universitaires de l’Université de Zurich (UZH) ont confirmé qu’ils avaient déployé des comptes dirigés par l’IA pour publier secrètement les commentaires dans le REDdit r/changyview (CMV) Communauté. Pouvoir persuasif des modèles de grandes langues dans un forum en ligne en ligne. Cependant, ses méthodes, qui impliquaient de l’utilisation de l’IA pour déduire les détails personnels des utilisateurs pour les arguments ciblés et l’identité de personnages sensibles, ont provoqué une forte condamnation des modérateurs de bénévoles du forum et enfilé un débat sur l’éthique de la recherche lorsque des études impliquent des participants en ligne sans méfiance. href=”https://www.reddit.com/r/changemyview/comments/1k8b2hj/meta_unauthorized_experiment_on_cmv_involving/”Target=”_ Blank”> a publié publiquement l’expérience fin avril. Ils ont révélé qu’ils avaient été informés par les chercheurs de l’UZH uniquement en mars, une fois la phase de collecte de données de l’étude (couvrant de novembre 2024 à mars 2025). SUBREDDIT Règle 5 contre les bots Et le contenu AI non divulgué. Malgré cela, les chercheurs ont offert une justification controversée:”Nous pensons cependant que, compte tenu de l’importance sociétale élevée de ce sujet, il était crucial de mener une étude de ce type, même si cela signifiait désobéir aux règles.”

Le projet de document des chercheurs, “peut modifier votre vue? Les preuves à partir d’une grande échelle de champ en ligne,” [PDF] détaille la méthodologie. Les comptes AI ont utilisé des modèles comme GPT-4O, Claude 3.5 Sonnet et Llama 3.1 405b. Certaines réponses étaient «génériques», tandis que d’autres impliquaient une «personnalisation», où, selon le projet, «en plus du contenu du Post, les LLM ont reçu des attributs personnels de l’OP (sexe, âge, ethnicité, localisation et orientation politique), en cas de déduction de leur historique de publication, un autre modèle GPT-4o. Les chercheurs ont revendiqué un succès significatif, l’IA atteignant les taux de persuasion trois à six fois plus élevés que la ligne de base humaine et les comptes d’IA accumulant plus de 10 000 commentaires Karma.

Les imitations sensibles scintillent l’indignation

Les implications éthiques se sont approfondies lorsque les modérateurs de CMV ont examiné les comptes AI (tels que u/markusruscht Et u/caeasarjst ) fourni par les chercheurs.

Ils ont découvert des cas troublants où les bots ont assumé des identités fausses et sensibles pour engager les utilisateurs, notamment en se faisant passer pour «victime de viol», «un conseiller en traumatologie spécialisé dans les abus» et «un homme noir opposé à Black Lives Matter». Les modérateurs ont souligné la violation de la confiance des utilisateurs, déclarant: «Les gens ne viennent pas ici pour discuter de leur point de vue avec l’IA ou pour être expérimenté.» La pré-coordination avec les communautés en ligne.

Cependant, l’université a soutenu la publication de l’étude, indiquant que le projet «donne des idées importantes, et les risques (par exemple, les traumatismes, etc.) sont minimes. Précédent, il établit: «Permettre la publication encouragera considérablement l’intrusion supplémentaire par les chercheurs, contribuant à une vulnérabilité communautaire accrue à l’expérimentation future des sujets humains non consensuels». Le Dr Casey Fiesler, professeur de Boulder à l’Université du Colorado, a fait écho publiquement à ces préoccupations, appelant l’étude”l’une des pires violations de l’éthique de la recherche que j’ai jamais vue”et réfutant la revendication d’un risque minimal.

Méthodes de recherche contrastées et d’éthique de l’IA

L’étude de Zurich se présente des méthodes de la méthodologie de l’AIE. OpenAI, par exemple, a mené des recherches à l’aide de données CMV obtenues via un accord de licence, mais a effectué des tests dans un environnement contrôlé sans tromper les utilisateurs de subreddit actifs. Cela met en évidence des approches alternatives qui évitent potentiellement les pièges éthiques rencontrés par les chercheurs de l’UZH.

Alors que l’équipe de Zurich prétend que leur AI a dépassé les références de persuasion humaine, la controverse se concentre sur la question de savoir si ces résultats justifient éthiquement les moyens utilisés pour les obtenir. Les modérateurs CMV ont laissé les commentaires du compte AI visibles (bien que verrouillés) pour la transparence, permettant aux utilisateurs de voir les interactions et ont fourni des informations de contact pour le