Los académicos de la Universidad de Zurich (UZH) han confirmado que implementaron cuentas impulsadas por AI para publicar comentarios en secreto dentro de Reddit r/changeMyview (cmv) comunidad.

El poder persuasivo de los modelos de idiomas grandes en un foro en línea en vivo. Sin embargo, sus métodos, que involucraban el uso de la IA para inferir detalles personales del usuario para los argumentos específicos y las personas sensibles a las personas, han provocado una fuerte condena de los moderadores voluntarios del foro y han encendido un debate sobre la ética de la investigación cuando los estudios involucran a los participantes en línea insuficientes. href=”https://www.reddit.com/r/changemyview/comments/1k8b2hj/meta_unauthorized_experiment_on_cmv_involving/”target=”_ en blanco”> divulgó públicamente el experimento a fines de abril. They revealed they were notified by the UZH researchers only in March, after the study’s data collection phase (spanning November 2024 to March 2025) was complete.

The researchers’ message, shared by the mods, acknowledged their actions violated El subreddit Regla 5 contra bots y contenido AI no escrito. A pesar de esto, los investigadores ofrecieron una justificación polémica:”Creemos, sin embargo, que dada la alta importancia social de este tema, fue crucial realizar un estudio de este tipo, incluso si eso significaba desobedecer las reglas”. href=”https://regmedia.co.uk/2025/04/29/supplied_can_ai_hange_your_view.pdf”target=”_ en blanco”>”¿Puede la IA cambiar su vista? Las cuentas de IA utilizaron modelos como GPT-4O, Claude 3.5 Sonnet y Llama 3.1 405b. Algunas respuestas fueron”genéricas”, mientras que otras involucraban”personalización”, donde, según el borrador,”además del contenido del Post, los LLM se proporcionaron atributos personales de la OP (género, edad, etnia, ubicación y orientación política), como se infiere de su historia de publicación utilizando otro LLM”. Los investigadores reclamaron un éxito significativo, con AI alcanzando tasas de persuasión de tres a seis veces más altas que la línea de base humana y las cuentas de IA que acumulan más de 10,000 comentarios de Karma.

Las suplantaciones sensibles designen la indignación

Las implicaciones éticas profundizaron cuando los moderadores de CMV revisaron las cuentas de AI (tales como u/markusruscht y u/ceasarjst ) proporcionó por los investigadores.

Descubrieron casos inquietantes en los que los bots asumieron identidades falsas y sensibles para involucrar a los usuarios, incluida la postura como”una víctima de violación”,”un consejero de trauma especializado en abuso”y”un hombre negro opuesto a Black Lives Matter”. Los moderadores enfatizaron la violación de la confianza del usuario, afirmando:”Las personas no vienen aquí para discutir sus puntos de vista con AI o para ser experimentados”.

Respuesta universitaria y preocupaciones continuas

Después de una queja de ética del CMV, la comisión de ética de UZH emitió una advertencia formal de la inversión y la que indica los planes de la inversión principal e indicó el strutin, la queja de los planes de la estrena, la que indica el Strutin, incluyó la Comisión Formal de la Investigación del Principal e indicó el Estrutín, los planes de Strutin. Pre-coordinación con las comunidades en línea.

Sin embargo, la universidad apoyó la publicación del estudio, afirmando que el proyecto”produce información importante, y los riesgos (por ejemplo, trauma, etc.) son mínimos. Esto significa que suprimir la publicación no es proporcional a la importancia de las ideas de los medios de estudio. Conjuntos:”Permitir la publicación fomentaría dramáticamente una mayor intrusión por parte de los investigadores, contribuyendo a una mayor vulnerabilidad de la comunidad a futuras experimentación de sujetos humanos no consensuados”. La Dra. Casey Fiesler, profesora de la Universidad de Colorado Boulder, se hizo eco públicamente de estas preocupaciones, calificó el estudio”una de las peores violaciones de la ética de la investigación que he visto”y refutando el reclamo de un riesgo mínimo.

Los métodos de investigación de la investigación y la ética de IA

el método Zur en contraste con la otra inversión de AI. Openai, por ejemplo, realizó investigaciones utilizando datos CMV obtenidos a través de un acuerdo de licencia, pero realizó pruebas dentro de un entorno controlado sin engañar a los usuarios activos de subreddit. Esto destaca los enfoques alternativos que potencialmente evitan las trampas éticas encontradas por los investigadores de UZH.

Si bien el equipo de Zurich afirma que su IA superó los puntos de referencia de persuasión humana, la controversia se centra en si esos resultados justifican éticamente los medios utilizados para obtenerlos. Los moderadores de CMV han dejado los comentarios de la cuenta de AI visibles (aunque bloqueados) para la transparencia, permitiendo a los usuarios ver las interacciones y proporcionados la información de contacto para en blanco”> en blanco”> _mank”Aquellos que deseen plantear preocupaciones.