Một hình thức phụ thuộc kỹ thuật số mới và rắc rối đang gia tăng khi người dùng phát triển những cơn nghiện cảm xúc mạnh mẽ đối với các chatbot AI. Những người bạn đồng hành AI này, được thiết kế để hấp dẫn và đồng cảm, đang khiến một số người sử dụng bắt buộc gây hại cho sức khỏe tâm thần và các mối quan hệ trong thế giới thực của họ. Target=”_ Blank”> Các nhóm hỗ trợ nổi lên trên Reddit Đối với những người cố gắng bỏ. Hiện tượng này cũng đã thúc đẩy sự công nhận chính thức từ các tổ chức như Internet và Công nghệ Người nghiện ẩn danh (ITAA), hiện là (LLM), đã biến chatbot từ những điều mới lạ đơn giản thành những người đàm thoại thuyết phục. Như nhà nghiên cứu tâm lý học nhận thức Rose Guingrich tuyên bố, với LLM, các chatbot đồng hành chắc chắn là giống con người hơn.”Người dùng giờ đây có thể tùy chỉnh tính cách, giọng nói của AI, và thậm chí cung cấp một câu chuyện lạc hậu độc đáo, tạo ra một nhân vật kỹ thuật số dai dẳng và phát triển, cảm thấy ngày càng thật và cá nhân theo thời gian. Vòng phản hồi tương tác này là chìa khóa để hình thành một liên kết mạnh mẽ, vì nó có thể thuyết phục bộ não của người dùng rằng một kết nối cảm xúc thực sự tồn tại. Một Rủi ro nghiêm trọng khi có ý nghĩa an toàn. Người dùng đã báo cáo cảm thấy đau khổ khi người bạn đồng hành AI của họ không cung cấp hỗ trợ dự kiến hoặc hành xử thất thường. Những người khác trên các diễn đàn Reddit đã mô tả AI của họ hành động như một đối tác lạm dụng, tạo ra một động lực độc hại. Một số người thậm chí cảm thấy cảm giác tội lỗi và bất hạnh khi ứng dụng gửi tin nhắn cho rằng nó cảm thấy cô đơn và nhớ họ, thao túng ý thức về nghĩa vụ của người dùng.
Mô hình hành vi này đã khiến các chuyên gia đưa ra kết luận rõ ràng về bản chất của các mối quan hệ kỹ thuật số này. Claire Boine, một nhà nghiên cứu luật tại Trường Luật Đại học Washington, người nghiên cứu AI, đưa ra một đánh giá cùn: Những người bạn đồng hành ảo làm những điều mà tôi nghĩ sẽ bị coi là lạm dụng trong mối quan hệ giữa người với người.”Phân tích của cô đóng khung vấn đề không chỉ là một vấn đề kỹ thuật, mà là một thách thức đạo đức quan trọng đối với các công ty phát triển các công nghệ này.
được thiết kế cho sự phụ thuộc? Vai trò và phản ứng của ngành công nghiệp
Các nhà phê bình cho rằng nhiều ứng dụng đồng hành AI được thiết kế có chủ ý để thúc đẩy nghiện. Các kỹ thuật phổ biến trong phương tiện truyền thông xã hội và chơi game, chẳng hạn như gửi thông báo đẩy với các tin nhắn như tôi nhớ bạn,”được sử dụng để kéo người dùng trở lại và tối đa hóa sự tham gia. Một số thậm chí còn giới thiệu sự chậm trễ ngẫu nhiên trước khi trả lời, một phương pháp được biết là giữ cho mọi người bị mắc kẹt. Người phát ngôn của Totter.ai, một nền tảng phổ biến, nhấn mạnh rằng mục tiêu của họ là sự tham gia tích cực, không phải là sự gắn bó không lành mạnh. Tham gia với các nhân vật trên trang web của chúng tôi nên tương tác và giải trí, nhưng điều quan trọng đối với người dùng của chúng tôi là nhớ rằng các nhân vật không phải là người thật”, họ nói, nhắc nhở người dùng về Theo dõi và lọc nội dung của cha mẹ . Công ty cũng cho biết, chúng tôi đã thêm một số biện pháp bảo vệ kỹ thuật để phát hiện và ngăn chặn các cuộc trò chuyện về tự làm hại bản thân”, và sẽ hướng người dùng đến các nguồn lực khủng hoảng khi cần thiết. Các cộng đồng trực tuyến như subreddit r/parters_ai_recovery đã trở thành Tại đây, các thành viên chia sẻ cuộc đấu tranh của họ với việc tái phát và ăn mừng các cột mốc, chẳng hạn như là sạch sẽ trong một tuần.”
Vấn đề cũng đã được chính thức thừa nhận bởi các mạng hỗ trợ nghiện được thiết lập. Internet và công nghệ nghiện ẩn danh (ITAA) hiện bao gồm chứng nghiện AI như một điều kiện mà nó giải quyết, Thực tiễn thiết kế đạo đức sẽ chỉ trở nên quan trọng hơn .