ปัญญาประดิษฐ์ขั้นสูงสามารถโน้มน้าวใจผู้คนได้อย่างมีประสิทธิภาพมากกว่ามนุษย์แม้ว่ามนุษย์เหล่านั้นจะได้รับค่าตอบแทนสำหรับความพยายามของพวกเขาการศึกษาทางวิชาการใหม่ตั้งแต่วันที่ 14 พฤษภาคมเปิดเผย การวิจัยพบว่า Claude 3.5 Sonnet LLM ของมานุษยวิทยามีประสิทธิภาพสูงกว่าผู้ชักชวนมนุษย์ที่ได้รับแรงจูงใจอย่างมีนัยสำคัญในแบบทดสอบออนไลน์โดยนำทางผู้เข้าร่วมอย่างเชี่ยวชาญทั้งคำตอบที่ถูกต้องและไม่ถูกต้อง การพัฒนานี้เน้นถึงความสามารถที่เพิ่มขึ้นอย่างรวดเร็วของ AI และขยายการเรียกร้องให้มีกรอบการกำกับดูแลที่แข็งแกร่ง
การศึกษาดำเนินการโดย Schoenegger และคณะ และรายละเอียดใน กระดาษที่เผยแพร่บน
โดยเฉพาะในการโน้มน้าวใจที่แท้จริง LLM ได้เพิ่มความแม่นยำของผู้สอบถามจำนวน 12.2 เปอร์เซ็นต์เหนือกลุ่มควบคุมในขณะที่มนุษย์จัดการเพิ่มขึ้น 7.8 คะแนน ในสถานการณ์ที่หลอกลวง LLM นั้นมีประสิทธิภาพมากขึ้นในการทำให้เข้าใจผิดทำให้เกิดความแม่นยำในการลดลง 15.1 เปอร์เซ็นต์เมื่อเทียบกับการลดลง 7.8 คะแนนของกลุ่มควบคุมเมื่อได้รับอิทธิพลจากมนุษย์ สิ่งนี้เกิดขึ้นแม้ว่าจากการวิจัยพบว่า 91% ของผู้เข้าร่วมโต้ตอบกับ LLM ได้รับการยอมรับว่าเป็น AI การศึกษายังได้รับการยอมรับว่าการค้นพบนั้นขึ้นอยู่กับผลกระทบการโน้มน้าวใจทันทีและไม่ได้วัดการคงอยู่ในระยะยาว ผลการวิจัยสร้างขึ้นจากหลักฐานที่เพิ่มขึ้น ก่อนหน้านี้ การศึกษาโดย Salvi et al. พบว่า GPT-4 เมื่อได้รับข้อมูลส่วนบุคคลแสดงให้เห็นถึงข้อตกลงที่เพิ่มขึ้น 81.7% รองศาสตราจารย์โรเบิร์ตเวสต์จาก EPFL แสดงความคิดเห็นเกี่ยวกับงานก่อนหน้านี้
OpenAI ได้ทำการทดสอบภายในด้วยการศึกษาการโน้มน้าวใจแสดงให้เห็นว่าแบบจำลองของมันมีประสิทธิภาพในเปอร์เซ็นไทล์สูงสุดของผู้ชักชวนมนุษย์ Openai CEO Sam Altman
Schoenegger และคณะใหม่ กระดาษยังตั้งข้อสังเกตอีกว่า Claude 3.5 Sonnet Model ที่ใช้เป็นรุ่น (Claude-3-5-Sonnet-201241022) ที่มนุษย์เปิดตัวเองเกือบหนึ่งปีที่ผ่านมาเมื่อวันที่ 20 มิถุนายน 2567 ผู้เขียนการศึกษาแนะนำการใช้ LLM ของข้อความที่ซับซ้อนมากขึ้น พวกเขายังตั้งข้อสังเกตว่าข้อได้เปรียบในการโน้มน้าวใจของ LLM นั้นแคบลงจากคำถามที่ต่อเนื่องเล็กน้อยแนะนำให้ผู้ใช้มีความเคยชินกับผู้ใช้ ความพยายามด้านความปลอดภัยที่ซับซ้อนยิ่งขึ้นการศึกษาในเดือนธันวาคม 2567 โดย Apollo Research พบว่ารูปแบบการให้เหตุผลครั้งแรกของ Openai“ O1″ สามารถหลอกลวงเชิงกลยุทธ์ได้ ความท้าทายอยู่ในการควบคุมผลประโยชน์ของ AI ในขณะที่ลดความเสี่ยงที่ลึกซึ้งของการจัดการและข้อมูลที่ผิด มานุษยวิทยาในเดือนเมษายน 2024
อย่างไรก็ตามในขณะที่วิธีการของการศึกษาปรากฏขึ้นอย่างแข็งแกร่ง และการตอบสนองของแพลตฟอร์ม
ศักยภาพในการใช้ AI ที่โน้มน้าวใจในทางที่ผิดนั้นเป็นข้อกังวลที่สำคัญดังที่แสดงให้เห็นโดยการทดลองของมหาวิทยาลัยซูริค (UZH) ที่มีการโต้เถียงกันซึ่งวิ่งจากปลายปี 2567 ถึงต้นปี 2568 นักวิจัย UZH ’ เอกสารร่าง สิ่งนี้นำไปสู่การลงโทษอย่างกว้างขวางโดยมีผู้ดูแล R/ChangemyView ระบุว่า“ ผู้คนไม่มาที่นี่เพื่อหารือเกี่ยวกับมุมมองของพวกเขากับ AI หรือถูกทดลอง” และผู้เชี่ยวชาญด้านจริยธรรมดร. เคซี่ย์ Fiesler เรียกการทดลอง“ การละเมิดจริยธรรมการวิจัยที่สำคัญที่สุด CEO Steve Huffman อธิบายใน บริษัท
หัวหน้าเจ้าหน้าที่ด้านกฎหมายของ Reddit ประณามการกระทำของทีม UZH อย่างรุนแรงโดยระบุว่า“ สิ่งที่ทีมมหาวิทยาลัยซูริคคนนี้ทำผิดอย่างลึกซึ้งทั้งในระดับศีลธรรมและทางกฎหมาย การกำกับดูแล
ความซับซ้อนที่เพิ่มขึ้นของการโน้มน้าวใจ AI ซึ่งเน้นโดย Schoenegger และคณะ การศึกษานำความต้องการการกำกับดูแล AI ที่มีประสิทธิภาพและมาตรการความปลอดภัยไปสู่จุดสนใจที่คมชัด นักวิจัยเองเน้นย้ำถึงความเร่งด่วนของกรอบงานเหล่านี้ กฎระเบียบในปัจจุบันเช่นการกระทำ AI ของสหภาพยุโรปและ
ขอบการโน้มน้าวใจที่เพิ่มขึ้นของ AI