Akademiker der Universität Zürich (UZH) haben bestätigt, dass sie AI-gesteuerte Berichte eingesetzt haben, um Kommentare in Reddits öffentlich bekannt das Experiment Ende April. Sie enthüllten, dass sie von den UZH-Forschern erst im März benachrichtigt wurden, nachdem die Datenerfassungsphase der Studie (Spannung von November 2024 bis März 2025) abgeschlossen war. verstoßen gegen das Subreddit Regel 5 gegen Bots und nicht genehmigte AI-Inhalt. Trotzdem boten die Forscher eine umstrittene Rechtfertigung an: „Wir glauben jedoch, dass es angesichts der hohen gesellschaftlichen Bedeutung dieses Themas entscheidend war, eine Studie dieser Art durchzuführen, auch wenn dies bedeutete, den Regeln nicht zu gehorchen. href=”https://regmedia.co.uk/2025/04/29/supplied_can_ai_change_your_view.pdf”target=”_ leer”>”Kann AI Ihre Ansicht ändern? AI-Konten verwendeten Modelle wie GPT-4O, Claude 3.5 Sonnet und Lama 3.1 405b. Einige Antworten waren”generisch”, während andere”Personalisierung”involviert waren, wobei nach dem Entwurf”zusätzlich zu den Inhalten des Posts die LLMs mit persönlichen Angaben des OP (Geschlecht, Alter, ethnischer Zugehörigkeit, Ort und politischer Orientierung) zur Verfügung gestellt wurden. Die Forscher hatten einen signifikanten Erfolg, wobei die KI die Überzeugungsraten drei-bis sechsmal höher als die menschliche Basislinie und die KI-Konten über 10.000 Kommentare karma sammeln. href=”https://www.reddit.com/user/markusrurut/”target=”_ leer”> u/markusrurut und _”_ bloße”> _”_ bloße”> _”_ bloße”> _”_ bloße”> _”_ bloße”> _”_ bloße”> ble”> _”_ bloße”> _”> ble”> _”>”> ble
Sie entdeckten störende Fälle, in denen Bots falsche, sensible Identitäten annahm, um Benutzer zu engagieren, einschließlich „Opfer von Vergewaltigung“, „ein auf Missbrauch spezialisierter Trauma-Berater“ und „ein schwarzer Mann gegen schwarze Leben gegen die Schwarze“. Die Moderatoren betonten den Verstoß gegen das Benutzervertrauen und erklärten: „Die Menschen kommen nicht hierher, um ihre Ansichten mit KI zu besprechen oder zu experimentieren.”Vor der Koordination mit Online-Communities. Präzedenzfälle es setzt: „Die Veröffentlichung würde das Erlaubnis der Forscher dramatisch fördern, was zu einer erhöhten Anfälligkeit der Gemeinschaft für zukünftige nicht einvernehmliche Experimente des Menschen beiträgt.”Dr. Casey Fiesler, ein Boulder-Professor der Universität von Colorado, wiederholte diese Bedenken öffentlich, nannte die Studie”eine der schlimmsten Verstöße gegen die Forschungsethik, die ich je gesehen habe”und die Behauptung eines minimalen Risikos widerlegt. OpenAI führte beispielsweise Forschungen mit CMV-Daten durch, die über einen Lizenzvertrag erhalten wurden, jedoch Tests in einer kontrollierten Umgebung durchführten, ohne aktive Subreddit-Benutzer zu täuschen. Dies unterstreicht alternative Ansätze, die möglicherweise die ethischen Fallstricke vermeiden, die von den UZH-Forschern auftreten. Die CMV-Moderatoren haben die KI-Konto-Kommentare für Transparenz sichtbar (obwohl gesperrt) gelassen, sodass Benutzer die Interaktionen ansehen können, und die Kontaktinformationen für die Für diejenigen, die Bedenken aussprechen möchten.