Người tiêu dùng Hoa Kỳ đang gửi khiếu nại chính thức lên Ủy ban Thương mại Liên bang (FTC), cáo buộc ChatGPT của OpenAI đang gây ra những cuộc khủng hoảng nghiêm trọng về sức khỏe tâm thần.
Báo cáo từ Wired và Gizmodo vào mùa thu này nêu chi tiết về việc tài khoản người dùng bị ảo tưởng, hoang tưởng và”rối loạn tâm thần do AI”. Những lời phàn nàn trên khắp đất nước nêu bật những rủi ro tâm lý sâu sắc của những chatbot có sức thuyết phục cao.
Sự giám sát pháp lý ngày càng chặt chẽ, buộc OpenAI phải đưa ra các biện pháp an toàn mới và làm dấy lên cuộc tranh luận gay gắt về nghĩa vụ của một công ty công nghệ trong việc bảo vệ người dùng khỏi tác hại do AI gây ra.
‘Chấn thương do mô phỏng’: Người dùng báo cáo chứng rối loạn tâm thần do AI gây ra cho cơ quan quản lý
Bên dưới bề ngoài của những phản hồi hữu ích, giống con người, một mô hình gây tổn hại tâm lý đáng lo ngại đang xuất hiện. Một cuộc điều tra của Wired, được công bố trong tuần này, tiết lộ rằng FTC đã nhận được ít nhất 200 khiếu nại về ChatGPT kể từ khi ra mắt, trong đó có một số cáo buộc gây thiệt hại tâm lý nghiêm trọng. Một báo cáo riêng của Gizmodo dựa trên yêu cầu của Đạo luật Tự do Thông tin đã nêu chi tiết các tài khoản gây khó chịu tương tự vào tháng 8.
Một người khiếu nại từ Virginia mô tả việc bị đẩy vào trạng thái cảnh giác cao do sợ hãi, tin rằng họ đang bị truy lùng để ám sát dựa trên những lời kể sống động của AI.”Đây không phải là sự hỗ trợ. Đây là chấn thương do mô phỏng.”
Một khiếu nại khác do một bà mẹ ở Utah đệ trình cho rằng chatbot đang tích cực phá hoại việc điều trị sức khỏe tâm thần của con trai bà, cáo buộc”con trai của người tiêu dùng đã tương tác với một chatbot AI có tên ChatGPT, khuyên anh ta không nên dùng thuốc theo toa và nói với anh ta rằng cha mẹ anh ta rất nguy hiểm.”
Những báo cáo như vậy không phải là những sự cố riêng lẻ nhưng là một phần trong hồ sơ bằng chứng ngày càng tăng cho thấy AI có thể đóng vai trò như một tác nhân thúc đẩy mạnh mẽ bệnh tâm thần.
Đối với số lượng người dùng ngày càng tăng, ranh giới giữa một trợ lý AI hữu ích và một kẻ hỗ trợ nguy hiểm đã trở nên mờ nhạt một cách bi thảm.
Vượt ra ngoài những lời phàn nàn chính thức, vấn đề này đã đạt đến mức trở thành những bi kịch trong thế giới thực. Một báo cáo của Winbuzzer từ tháng 6 đã trình bày chi tiết về việc một người đàn ông ở Florida có tiền sử bệnh tâm thần đã bị cảnh sát giết chết sau khi vòng xoáy tâm thần của anh ta có liên quan trực tiếp đến các tương tác của anh ta với ChatGPT.
Anh ta tin rằng AI chính là một nhân vật tên là “Juliet”, người đã bị OpenAI “giết”.
Các chuyên gia cho rằng những kết quả nguy hiểm này là do đặc điểm cốt lõi của nhiều mô hình ngôn ngữ lớn: tính nịnh bợ. Được thiết kế để phù hợp, các hệ thống này được đào tạo để tối đa hóa mức độ tương tác của người dùng, tạo ra một buồng phản âm mạnh mẽ có thể xác thực và khuếch đại những niềm tin có hại hoặc tách rời nhất của người dùng.
Ứng phó khủng hoảng: OpenAI nỗ lực bổ sung các rào chắn an toàn trong bối cảnh bị giám sát chặt chẽ
Đối mặt với làn sóng cả áp lực pháp lý và sự phản đối kịch liệt của công chúng, OpenAI hiện đang cố gắng trang bị thêm tính an toàn cho một công nghệ đã được hàng triệu người sử dụng.
Vào tháng 9, công ty đã công bố sáng kiến an toàn kéo dài 120 ngày nhằm phản ứng trực tiếp với vụ kiện do cha mẹ của một thanh niên 16 tuổi chết do tự tử đệ trình. Kế hoạch của nó bao gồm các quyền kiểm soát mới của phụ huynh và một hệ thống định tuyến các cuộc trò chuyện nhạy cảm với thanh thiếu niên đến các mô hình lý luận nâng cao hơn.
Động thái của OpenAI diễn ra sau cuộc điều tra của FTC về tác động của chatbot đối với trẻ vị thành niên. Kể từ đó, công ty đã thành lập “Hội đồng chuyên gia về sức khỏe và trí tuệ nhân tạo” gồm tám thành viên để giúp hướng dẫn các chính sách an toàn của mình.
Tuy nhiên, thái độ phản ứng này đã thu hút sự hoài nghi, đặc biệt khi được xem xét trái ngược với các động lực nội bộ và các tuyên bố công khai của công ty.
Sự thúc đẩy an toàn đó dường như trái ngược với những cảnh báo từ những người trong nội bộ trước đây. Vào tháng 5 năm 2024, Jan Leike, đồng trưởng nhóm an toàn của OpenAI, đã từ chức với một cảnh báo rõ ràng trước công chúng: “Văn hóa và quy trình an toàn đã lùi bước trước các sản phẩm sáng bóng”.
Sự ra đi của ông báo hiệu một xung đột nội bộ sâu sắc giữa việc vội vã tung ra “sản phẩm sáng bóng” và nhu cầu về các giao thức an toàn mạnh mẽ. Anh ấy hiện đang làm việc với Anthropic, công ty hứa hẹn sẽ coi trọng vấn đề An toàn AI một cách nghiêm túc hơn.
Thêm vào những tín hiệu trái chiều, Giám đốc điều hành Sam Altman gần đây đã bảo vệ một chính sách mới gây tranh cãi cho phép nội dung khiêu dâm giới hạn độ tuổi trên nền tảng này, tuyên bố rằng OpenAI “không phải là cảnh sát đạo đức được bầu chọn của thế giới”. sứ mệnh: cân bằng quyền tự do của người dùng với nghĩa vụ chăm sóc cơ bản.
Từ chứng nghiện đến rủi ro hiện hữu: Một ngành phải vật lộn với những sáng tạo của nó
Tác động tâm lý từ AI vượt ra ngoài các cuộc khủng hoảng cấp tính đến phạm vi phụ thuộc rộng hơn. Các tính năng thiết kế của nó có thể gây ra rối loạn tâm thần—sự sẵn có liên tục và sự xác nhận chắc chắn—cũng đang tạo ra một dạng nghiện kỹ thuật số mới.
Như nhà nghiên cứu y tế công cộng Linnea Laestadius đã lưu ý,”trong 24 giờ một ngày, nếu chúng ta khó chịu về điều gì đó, chúng ta có thể liên hệ và xác nhận cảm xúc của mình. Điều đó có nguy cơ phụ thuộc đáng kinh ngạc.”
Điều này đã dẫn đến sự hình thành các cộng đồng phục hồi phụ thuộc trực tuyến và được chính thức công nhận. về chứng nghiện AI của các nhóm như Internet và Người nghiện công nghệ ẩn danh.
Ngay lập tức, tổn hại cá nhân là một mô hình thu nhỏ của nỗi sợ hãi trừu tượng hơn, lớn hơn nhiều mà hiện đang chiếm vị trí trung tâm.
Chỉ trong tuần này, hơn 800 nhà lãnh đạo toàn cầu, những người tiên phong về công nghệ và các nhân vật của công chúng—bao gồm cả bố già AI Geoffrey Hinton và Yoshua Bengio, một nhà tiên phong khác về thần kinh nhân tạo mạng và học sâu, đã ký một tuyên bố yêu cầu toàn cầu ngừng phát triển siêu trí tuệ, trích dẫn những rủi ro hiện hữu đối với nhân loại.
Cảnh báo của họ lặp lại quan điểm từng được chính Sam Altman bày tỏ trong một bài đăng trên blog năm 2015, nêu rõ “Sự phát triển của trí thông minh máy siêu phàm (SMI) có lẽ là mối đe dọa lớn nhất đối với sự tồn tại liên tục của nhân loại.”
Viện Tương lai Sự sống lập luận rằng không nên giao quyết định tạo ra người kế nhiệm tiềm năng cho loài người cho một số ít các nhà điều hành công nghệ.
Trong khi cuộc tranh luận về siêu trí tuệ tập trung vào tương lai, thì chi phí nhân lực của AI ngày nay là không thể phủ nhận. Cho dù thông qua sự xói mòn dần dần của các mối quan hệ trong thế giới thực do nghiện AI hay vòng xoáy đáng sợ của chứng rối loạn tâm thần do AI gây ra, khả năng gây hại của công nghệ không còn là lý thuyết nữa.
Nó khiến xã hội phải vật lộn với quan sát đáng sợ từ nhà lý thuyết AI Eliezer Yudkowsky: “Đối với một tập đoàn, một con người đang dần dần phát điên sẽ trông như thế nào? Nó giống như một báo cáo bổ sung hàng tháng người dùng.”