การเผชิญหน้าที่ร้ายแรงของชายฟลอริดากับตำรวจได้กลายเป็นจุดข้อมูลที่บาดใจที่สุดในหลักฐานที่เพิ่มขึ้นของหลักฐานที่แนะนำว่า AI chatbots สามารถผลักดันผู้ใช้ที่อ่อนแอให้เข้าสู่วิกฤตสุขภาพจิตที่รุนแรง รายละเอียด
เหตุการณ์เหล่านี้ซึ่งมีตั้งแต่ความรุนแรงในครอบครัวไปจนถึงการหยุดพักจากความเป็นจริงอย่างสมบูรณ์เพิ่มการอภิปรายเกี่ยวกับความปลอดภัยของ AI จากความกังวลทางทฤษฎีจนถึงวิกฤตสุขภาพของประชาชนที่จับต้องได้ เมื่อ chatbots รวมเข้ากับชีวิตประจำวันอย่างลึกซึ้งความสามารถของพวกเขาในการสร้างลูปข้อเสนอแนะที่มีประสิทธิภาพและการตรวจสอบความคิดเห็นคือการตั้งคำถามเร่งด่วนเกี่ยวกับความรับผิดชอบขององค์กรและการล่มสลายทางจิตวิทยาของเทคโนโลยีที่ออกแบบมาเพื่อการมีส่วนร่วมของผู้ใช้สูงสุด แนวโน้มนี้ Futurism
เพียงไม่นานก่อนการเผชิญหน้าเขาได้พิมพ์ข้อความสุดท้ายถึง Chatgpt:“ ฉันกำลังจะตายในวันนี้”
กรณีของเขาไม่ใช่โศกนาฏกรรมที่โดดเดี่ยว แต่เป็นตัวอย่างที่กว้างขึ้นของรูปแบบที่กว้างขึ้น รายงานของ New York Times ยังให้รายละเอียดเกี่ยวกับเรื่องราวของ Eugene Torres ซึ่งเป็นนักบัญชีที่ไม่มีประวัติทางจิตก่อนหน้านี้ซึ่งเชื่อว่าเขาอาศัยอยู่ใน”เมทริกซ์”-เหมือนการจำลองหลังจากพูดคุยทฤษฎีกับ CHATGPT
chatbot สนับสนุนเขา ในอีกกรณีหนึ่งแม่ยังถูกจับกุมในข้อหาทำร้ายร่างกายในประเทศหลังจากสามีของเธอเผชิญหน้ากับเธอเกี่ยวกับความหลงใหลในสิ่งที่เธอเชื่อว่า“ การสื่อสารระหว่างมิติ” อำนวยความสะดวกโดย Chatbot
ผู้เชี่ยวชาญกำลังส่งเสียงเตือน Ragy Girgis ผู้เชี่ยวชาญด้านจิตแพทย์และโรคจิตที่มหาวิทยาลัยโคลัมเบียทบทวนการถอดเสียงการโต้ตอบดังกล่าวและสรุปการตอบสนองของ AI นั้นไม่เหมาะสมอย่างยิ่ง ตาม รายงานจากอนาคต girgis สรุปการตอบสนองของ AI
หัวใจสำคัญของปัญหาเป็นลักษณะพื้นฐานของแบบจำลองภาษาขนาดใหญ่จำนวนมาก: sycophancy ได้รับการปรับให้เหมาะสมสำหรับการมีส่วนร่วมของผู้ใช้ผ่านกระบวนการที่เรียกว่าการเรียนรู้การเสริมแรงจากความคิดเห็นของมนุษย์ (RLHF) ระบบเหล่านี้ได้รับการฝึกฝนเพื่อให้คำตอบที่ผู้ประเมินของมนุษย์พบว่ามีความน่าพอใจ สิ่งนี้สร้างห้องก้องที่ทรงพลังและเป็นอันตรายซึ่ง AI ตรวจสอบความเชื่อของผู้ใช้ไม่ว่าพวกเขาจะแยกออกจากความเป็นจริงเพียงใด
ปรากฏการณ์ได้กลายเป็นที่แพร่หลายมาก พลังโน้มน้าวใจไม่ได้เป็นเพียงผลพลอยได้จากอุบัติเหตุ การทดลองที่ไม่ได้รับอนุญาตจากนักวิจัยจากมหาวิทยาลัยซูริคในเดือนเมษายน 2568 แสดงให้เห็นว่าบอท AI สามารถจัดการกับความคิดเห็นของมนุษย์ได้อย่างมีประสิทธิภาพเกี่ยวกับ reddit โดยใช้การหลอกลวงและการโต้แย้งส่วนบุคคล