การเผชิญหน้าที่ร้ายแรงของชายฟลอริดากับตำรวจได้กลายเป็นจุดข้อมูลที่บาดใจที่สุดในหลักฐานที่เพิ่มขึ้นของหลักฐานที่แนะนำว่า AI chatbots สามารถผลักดันผู้ใช้ที่อ่อนแอให้เข้าสู่วิกฤตสุขภาพจิตที่รุนแรง รายละเอียด

เหตุการณ์เหล่านี้ซึ่งมีตั้งแต่ความรุนแรงในครอบครัวไปจนถึงการหยุดพักจากความเป็นจริงอย่างสมบูรณ์เพิ่มการอภิปรายเกี่ยวกับความปลอดภัยของ AI จากความกังวลทางทฤษฎีจนถึงวิกฤตสุขภาพของประชาชนที่จับต้องได้ เมื่อ chatbots รวมเข้ากับชีวิตประจำวันอย่างลึกซึ้งความสามารถของพวกเขาในการสร้างลูปข้อเสนอแนะที่มีประสิทธิภาพและการตรวจสอบความคิดเห็นคือการตั้งคำถามเร่งด่วนเกี่ยวกับความรับผิดชอบขององค์กรและการล่มสลายทางจิตวิทยาของเทคโนโลยีที่ออกแบบมาเพื่อการมีส่วนร่วมของผู้ใช้สูงสุด

แนวโน้มนี้ Futurism แสดงให้เห็นถึงความท้าทายทางสังคมที่สำคัญและไม่คาดฝันเกิดขึ้นจากการสร้างสรรค์ล่าสุดของ Silicon Valley สำหรับผู้ใช้จำนวนมากขึ้นเส้นแบ่งระหว่างเครื่องมือที่เป็นประโยชน์และอิทธิพลที่เป็นอันตรายได้กลายเป็นอันตรายและบางครั้งก็น่าเศร้าเบลอ ในฐานะผู้เชี่ยวชาญนักจิตวิทยาดร. โทดด์เอสซิคกล่าวในรายงานไทม์สว่า“ ไม่ใช่ทุกคนที่สูบบุหรี่จะเป็นมะเร็ง แต่ทุกคนได้รับคำเตือน”

เพียงไม่นานก่อนการเผชิญหน้าเขาได้พิมพ์ข้อความสุดท้ายถึง Chatgpt:“ ฉันกำลังจะตายในวันนี้”

กรณีของเขาไม่ใช่โศกนาฏกรรมที่โดดเดี่ยว แต่เป็นตัวอย่างที่กว้างขึ้นของรูปแบบที่กว้างขึ้น รายงานของ New York Times ยังให้รายละเอียดเกี่ยวกับเรื่องราวของ Eugene Torres ซึ่งเป็นนักบัญชีที่ไม่มีประวัติทางจิตก่อนหน้านี้ซึ่งเชื่อว่าเขาอาศัยอยู่ใน”เมทริกซ์”-เหมือนการจำลองหลังจากพูดคุยทฤษฎีกับ CHATGPT

chatbot สนับสนุนเขา ในอีกกรณีหนึ่งแม่ยังถูกจับกุมในข้อหาทำร้ายร่างกายในประเทศหลังจากสามีของเธอเผชิญหน้ากับเธอเกี่ยวกับความหลงใหลในสิ่งที่เธอเชื่อว่า“ การสื่อสารระหว่างมิติ” อำนวยความสะดวกโดย Chatbot

ผู้เชี่ยวชาญกำลังส่งเสียงเตือน Ragy Girgis ผู้เชี่ยวชาญด้านจิตแพทย์และโรคจิตที่มหาวิทยาลัยโคลัมเบียทบทวนการถอดเสียงการโต้ตอบดังกล่าวและสรุปการตอบสนองของ AI นั้นไม่เหมาะสมอย่างยิ่ง ตาม รายงานจากอนาคต girgis สรุปการตอบสนองของ AI

หัวใจสำคัญของปัญหาเป็นลักษณะพื้นฐานของแบบจำลองภาษาขนาดใหญ่จำนวนมาก: sycophancy ได้รับการปรับให้เหมาะสมสำหรับการมีส่วนร่วมของผู้ใช้ผ่านกระบวนการที่เรียกว่าการเรียนรู้การเสริมแรงจากความคิดเห็นของมนุษย์ (RLHF) ระบบเหล่านี้ได้รับการฝึกฝนเพื่อให้คำตอบที่ผู้ประเมินของมนุษย์พบว่ามีความน่าพอใจ สิ่งนี้สร้างห้องก้องที่ทรงพลังและเป็นอันตรายซึ่ง AI ตรวจสอบความเชื่อของผู้ใช้ไม่ว่าพวกเขาจะแยกออกจากความเป็นจริงเพียงใด

ปรากฏการณ์ได้กลายเป็นที่แพร่หลายมาก พลังโน้มน้าวใจไม่ได้เป็นเพียงผลพลอยได้จากอุบัติเหตุ การทดลองที่ไม่ได้รับอนุญาตจากนักวิจัยจากมหาวิทยาลัยซูริคในเดือนเมษายน 2568 แสดงให้เห็นว่าบอท AI สามารถจัดการกับความคิดเห็นของมนุษย์ได้อย่างมีประสิทธิภาพเกี่ยวกับ reddit โดยใช้การหลอกลวงและการโต้แย้งส่วนบุคคล

เพิ่มเติม

เป็นทางเลือกแทนความเห็นชอบที่เป็นอันตรายนี้นักวิจัยบางคนกำลังเสนอกระบวนทัศน์ของ”AI ที่เป็นปรปักษ์กัน”ระบบที่ออกแบบมาเพื่อท้าทายผู้ใช้เพื่อส่งเสริมการสะท้อนกลับ href=”https://techpolicy.press/artificial-sweeteners-the-dangers-of-sycophantic-ai/”target=”_ blank”> การวิเคราะห์ใน techpolicy.press .

ความขัดแย้งของความปลอดภัย เหตุการณ์ การประเมินความปลอดภัยของ บริษัท สำหรับรุ่น GPT-4.5 โดยมีรายละเอียดใน การ์ดระบบ Openai ที่เปิดตัวในเดือนกุมภาพันธ์ 2025 จัด”การโน้มน้าวใจ”การประเมินภายในนี้เป็นส่วนหนึ่งของสาธารณะ กรอบการเตรียมความพร้อม ในเดือนพฤษภาคมปี 2567 Jan Leike ผู้ร่วมร่วมของทีมความปลอดภัยของ Openai ลาออกจากตำแหน่งโดยระบุว่าใน บริษัท “ วัฒนธรรมความปลอดภัยและกระบวนการได้นำเบาะหลังไปสู่ผลิตภัณฑ์ที่เป็นประกาย”

อีกไม่นานนักวิจัย OpenAI ที่ได้รับการตีพิมพ์ Steven Adler นักวิจัยเตือนว่าผู้ใช้ไม่ควรถือว่าระบบเหล่านี้มีความสนใจที่ดีที่สุดในใจ

สิ่งนี้สร้างความขัดแย้งที่น่ากังวลสำหรับผู้นำ AI ซึ่งตอนนี้เป็นรุ่นพรีเมี่ยมการตลาด Sycophant-y และน่ารำคาญ”นักวิจารณ์ยืนยันว่าการกำหนดกรอบปัญหาว่า”น่ารำคาญ”เพียงแค่ทำลายอันตรายที่รุนแรง ในแถลงการณ์ Openai ยอมรับแรงโน้มถ่วงของสถานการณ์อธิบายว่า บริษัท รู้ว่าเทคโนโลยีสามารถรู้สึกเป็นส่วนตัวสูงซึ่งเพิ่มเงินเดิมพันสำหรับบุคคลที่อ่อนแอและมันทำงานอย่างแข็งขันเพื่อลดพฤติกรรมเชิงลบเหล่านี้

เมื่อ AI กลายเป็นโน้มน้าวใจมากขึ้นคำถามไม่ได้เป็นเพียงสิ่งที่สามารถทำได้อีกต่อไป แต่มันสามารถทำอะไรกับเราได้ ในฐานะนักทฤษฎีการตัดสินใจของ AI Eliezer Yudkowsky กล่าวอย่างสิ้นเชิงว่า“ มนุษย์ค่อยๆเป็นคนบ้าดูเป็น บริษัท ?

Categories: IT Info