A Zürich Egyetem (UZH) akadémikusai megerősítették, hogy az AI-vezérelt fiókokat telepítették, hogy titokban hozzászólást tegyenek a Reddit r/ChangeMemyview (cmv) közösség. A nagy nyelvű modellek meggyőző ereje egy élő online fórumon. A módszerei, amelyek az AI használatát magukban foglalják a célzott érvek személyes felhasználói részleteinek következtetésére és az érzékeny személyek megszemélyesítésére, erőteljes elítélést váltottak ki a fórum önkéntes moderátorainak és a kutatási etikáról folytatott vitát, amikor a tanulmányok az online résztvevők gyanútlanul. href=”https://www.reddit.com/r/changemyview/comments/1k8b2hj/meta_unauthorized_experiment_on_cmv_involving/”cél=”_ üres”> nyilvánosan nyilvánosságra hozták a kísérletet . Kiderültek, hogy az UZH kutatói csak márciusban értesítették őket, miután a tanulmány adatgyűjtési szakasza (2024 novemberéig 2025 márciusáig) teljes volt. A cselekvések megsértették a Subreddit 5. szabályát a botok ellen és a nem nyilvánosságra hozott AI tartalom ellen. Ennek ellenére a kutatók vitatott igazolást ajánlottak fel: „Úgy gondoljuk azonban, hogy figyelembe véve a téma magas társadalmi jelentőségét, döntő fontosságú volt egy ilyen típusú tanulmány elvégzéséhez, még akkor is, ha ez azt jelentette, hogy nem engedelmeskednek a szabályoknak.”href=”https://regmedia.co.uk/2025/04/29/supplied_can_ai_change_your_view.pdf”Target=”_ üres”> „Meg tudja változtatni a nézetet? Bizonyítékokat egy nagyméretű online mezői kísérletből”,” [PDF] A módszertan részleteit. Az AI-fiókok olyan modelleket használtak, mint a GPT-4O, a Claude 3.5 Sonnet és a Llama 3.1 405b. Néhány válasz „általános” volt, míg mások „személyre szabást” vettek részt, ahol a tervezet szerint „a bejegyzés tartalmán kívül az LLM-eket az OP személyes tulajdonságaival (nem, életkor, etnikai hovatartozás, hely és politikai orientáció) adták, mivel a kiküldetési előzményeikből egy másik LLM-et használnak.” A kutatók jelentős sikert szereztek, mivel az AI meggyőzési arányt ért el három-hatszor magasabb, mint az emberi alapvonal, és az AI számlák több mint 10 000 megjegyzéskarmát halmoznak fel. href=”https://www.reddit.com/user/markusruscht/”Target=”_ blank”> u/markusruscht és u/ceasarjst )
Zavaró eseteket fedeztek fel, amikor a botok hamis, érzékeny identitásokat feltételeztek a felhasználók vonzása érdekében, ideértve a „nemi erőszak áldozataként”, a „visszaélésekre szakosodott trauma-tanácsadó” és a „Black Lives Matter elleni fekete ember” pózolását. A moderátorok hangsúlyozták a felhasználói bizalom megsértését, kijelentve: „Az emberek nem azért jönnek ide, hogy megvitassák véleményüket AI-vel vagy kísérletezzenek.”Az online közösségekkel való koordináció. Precedens, amelyet beállít: „A közzététel engedélyezése drasztikusan ösztönözné a kutatók további behatolását, hozzájárulva a közösség fokozottabb sebezhetőségéhez a jövőbeni nem konszenzusos emberi alanyok kísérletével.”Dr. Casey Fiesler, a Colorado Egyetem Boulder professzora nyilvánosan visszhangzott ezeket az aggodalmakat, és a tanulmányt „a kutatási etika egyik legrosszabb megsértése, amelyet valaha láttam”, és megcáfolva a minimális kockázat követelését. Az OpenAI például kutatást végzett a CMV-adatok felhasználásával, amelyeket licencszerződés útján szereztek be, de ellenőrzött környezetben végzett teszteket végeztek anélkül, hogy megtévesztették volna az aktív subreddit felhasználókat. Ez kiemeli az alternatív megközelítéseket, amelyek potenciálisan elkerülik az üzbég kutatói által tapasztalt etikai buktatókat. A CMV moderátorok az AI-fiók megjegyzéseit láthatóvá tették (bár zárva) az átláthatóság érdekében, lehetővé téve a felhasználók számára, hogy megnézhessék az interakciókat, és kapcsolattartási információkat szolgáltattak a uzh _ bombs”> Uzh omh-bomba azok számára, akik aggodalmakat kívánnak felvetni.