การวิจัยที่นำเสนอที่ การประชุม Chi 2025 เผยให้เห็นรูปแบบที่น่าสงสัยว่าคนทั่วไปตอบสนองต่อคำแนะนำทางกฎหมายมากขึ้น เกิดขึ้นแม้ว่าผู้คนจะแสดงให้เห็นถึงความสามารถในการแยกแยะความแตกต่างระหว่าง AI และข้อความที่เขียนโดยมนุษย์ได้ดีกว่าโอกาสที่จะทำนายการแนะนำความสัมพันธ์ที่ซับซ้อนกับความเชี่ยวชาญอัตโนมัติตามที่มีรายละเอียดในกระดาษชื่อ“ การคัดค้านที่ครอบงำ! href=”https://dl.acm.org/doi/10.1145/3706598.3713470″target=”_ blank”> การค้นพบ ลำต้นจากชุดการทดลองสามครั้งที่เกี่ยวข้องกับผู้เข้าร่วม 288 คน นักวิจัยนำเสนอสถานการณ์ทางกฎหมายที่ครอบคลุมปัญหาทั่วไปเช่นการจราจรการวางแผนและกฎหมายทรัพย์สินตามแบบสอบถามออนไลน์ในโลกแห่งความเป็นจริงที่มาจากแพลตฟอร์มเช่น
การวิจัยสำรวจว่าทำไมโมเดลที่ทรงพลังเหล่านี้ชี้ไปที่ปัจจัยที่อาจเกิดขึ้นหลายประการที่เกี่ยวข้องกับการฝึกอบรมของพวกเขา ทฤษฎีรวมถึงกระบวนการเรียนรู้การเสริมแรง (RL) อาจให้รางวัลการสร้างสิ่งประดิษฐ์ที่น่าเชื่อถือหากพวกเขานำไปสู่คำตอบสุดท้ายที่ถูกต้องดูเหมือนความท้าทายสำหรับการเรียนรู้การเสริมแรงจากความคิดเห็นของมนุษย์ (RLHF) เมื่อผู้ประเมินของมนุษย์ไม่สามารถตรวจสอบความถูกต้องของขั้นตอนการใช้เหตุผลระหว่างการวิเคราะห์ การประดิษฐ์การกระทำที่พวกเขาไม่สามารถทำได้ ในฐานะนักวิจัย Transluce Neil Chowdhury แนะนำให้ TechCrunch“ สมมติฐานของเราคือการเรียนรู้การเสริมแรงที่ใช้สำหรับแบบจำลอง O-Series อาจขยายปัญหาที่มักจะบรรเทา ฉากหลังของความไม่น่าเชื่อถือที่อาจเกิดขึ้นได้ตอกย้ำข้อกังวลที่เกิดขึ้นจากการค้นพบของ Chi Paper เกี่ยวกับความน่าเชื่อถือของผู้ใช้ การค้นพบที่เหมาะสมกับการอภิปรายที่กว้างขึ้นเกี่ยวกับความน่าเชื่อถือสาธารณะใน AI ในขณะที่การใช้งานเพิ่มขึ้น สามารถระบุตัวตนได้แทนที่จะเลียนแบบผู้เชี่ยวชาญของมนุษย์อาจเป็นกุญแจสำคัญในการส่งเสริมความเชื่อมั่นของผู้ใช้ที่สอบเทียบมากขึ้น วัสดุการศึกษาเต็มรูปแบบรวมถึงสคริปต์ข้อมูลและการวิเคราะห์ที่ใช้ใน jspsych / เฟรมเวิร์กวิทยาศาสตร์เปิด . บริบทที่กว้างขึ้นและก้าวไปข้างหน้า
Categories: IT Info