Các học giả từ Đại học Zurich (UZH) đã xác nhận rằng họ đã triển khai các tài khoản điều khiển AI để bí mật đăng bình luận trong Reddit tựa công khai tiết lộ thử nghiệm vào cuối tháng 4. Họ đã tiết lộ rằng họ đã được các nhà nghiên cứu UZH thông báo chỉ vào tháng 3, sau khi giai đoạn thu thập dữ liệu của nghiên cứu (trải qua tháng 11 năm 2024 đến tháng 3 năm 2025) đã hoàn tất. đã vi phạm Subreddit từ Quy tắc 5 đối với bots và không tiết lộ nội dung AI. Mặc dù vậy, các nhà nghiên cứu đã đưa ra một lời biện minh gây tranh cãi: Tuy nhiên, chúng tôi tin rằng điều đó có tầm quan trọng xã hội cao của chủ đề này, điều quan trọng là phải tiến hành một nghiên cứu loại này, ngay cả khi điều đó có nghĩa là không tuân theo các quy tắc. href=”https://regmedia.co.uk/2025/04/29/supplied_can_ai_change_your_view.pdf”Target=”_ Blank”> AI có thể thay đổi quan điểm của bạn không? Các tài khoản AI đã sử dụng các mô hình như GPT-4O, Claude 3.5 Sonnet và Llama 3.1 405B. Một số câu trả lời là chung chung,”trong khi những người khác liên quan đến cá nhân hóa,”, theo dự thảo, ngoài nội dung của Post, LLM được cung cấp các thuộc tính cá nhân của OP (giới tính, tuổi, dân tộc, địa điểm và định hướng chính trị), như được suy ra từ lịch sử đăng bài khác. Các nhà nghiên cứu tuyên bố thành công đáng kể, với AI đạt được tỷ lệ thuyết phục cao gấp ba đến sáu lần so với đường cơ sở của con người và các tài khoản AI tích lũy hơn 10.000 bình luận Karma. href=”https://www.reddit.com/user/markusruscht/”target=”_ blank

Họ đã phát hiện ra những trường hợp đáng lo ngại trong đó bot giả định danh tính sai, nhạy cảm để thu hút người dùng, bao gồm đóng giả là một nạn nhân của hiếp dâm,”Một cố vấn chấn thương chuyên về lạm dụng”, và một người đàn ông da đen phản đối Black Lives Matter.”Người điều hành nhấn mạnh sự vi phạm niềm tin của người dùng, nói rằng, người dân không đến đây để thảo luận về quan điểm của họ với AI hoặc được thử nghiệm.”Sự phối hợp trước với các cộng đồng trực tuyến. Nó đặt ra: Cho phép xuất bản sẽ khuyến khích đáng kể sự xâm nhập của các nhà nghiên cứu, góp phần làm tăng tính dễ bị tổn thương của cộng đồng đối với thử nghiệm các đối tượng phi thỏa thuận trong tương lai.”Tiến sĩ Casey Fiesler, một giáo sư của Đại học Colorado, công khai lặp lại những lo ngại này, gọi nghiên cứu là một trong những vi phạm đạo đức nghiên cứu tồi tệ nhất mà tôi đã từng thấy”và bác bỏ yêu cầu rủi ro tối thiểu. Ví dụ, OpenAI đã tiến hành nghiên cứu bằng cách sử dụng dữ liệu CMV thu được thông qua thỏa thuận cấp phép, nhưng đã thực hiện các thử nghiệm trong môi trường được kiểm soát mà không lừa dối người dùng Subreddit hoạt động. Điều này nhấn mạnh các phương pháp thay thế có khả năng tránh những cạm bẫy đạo đức mà các nhà nghiên cứu UZH gặp phải. Người điều hành CMV đã để lại nhận xét tài khoản AI (mặc dù bị khóa) để minh bạch, cho phép người dùng xem các tương tác và cung cấp thông tin liên hệ cho