การศึกษาระดับนานาชาติครั้งสำคัญซึ่งเผยแพร่เมื่อวันอังคารเผยให้เห็นว่าผู้ช่วย AI ชั้นนำไม่ใช่แหล่งข่าวที่เชื่อถือได้ โดยพบข้อผิดพลาดสำคัญในการตอบสนองต่อเหตุการณ์ปัจจุบันถึง 45%
การวิจัยซึ่งประสานงานโดย European Broadcasting Union (EBU) และ BBC ได้ระบุข้อบกพร่องเชิงระบบในทุกแพลตฟอร์มหลักทั้งหมด
การจัดหาที่ไม่ดีคือปัญหาที่ใหญ่ที่สุด โดยโมเดล Gemini ของ Google ทำงานได้แย่ที่สุดโดยแสดงนัยสำคัญ ปัญหาใน 76% ของการตอบกลับ
รายงานเตือนว่าความล้มเหลวเหล่านี้เป็นอันตรายต่อความไว้วางใจของสาธารณะ เนื่องจากองค์กรข่าวมักจะเชื่อมโยงอย่างไม่ถูกต้องกับข้อมูลที่บิดเบือนหรือปลอมแปลงของ AI โดยก่อให้เกิดโดยตรง ความเสี่ยงด้านชื่อเสียง
ปัญหาเชิงระบบและหลายภาษา
ใน 14 ภาษาและ 18 ประเทศ การค้นพบ เผยให้เห็นภาพอันเลวร้ายของสถานะปัจจุบันของ AI การสร้างข่าว การวิจัยนี้เกี่ยวข้องกับองค์กรสื่อเพื่อการบริการสาธารณะ 22 แห่ง รวมถึง NPR ในสหรัฐอเมริกาและ CBC ในแคนาดา การวิจัยถือเป็นงานวิจัยที่ใหญ่ที่สุดในประเภทนี้
นักข่าวประเมินคำตอบมากกว่า 3,000 รายการจาก ChatGPT, Copilot, Gemini และ Perplexity โดยสรุปว่าปัญหาดังกล่าวฝังแน่นอยู่ลึก
เกือบครึ่งหนึ่งของคำตอบที่สร้างโดย AI ทั้งหมด หรือ 45% เต็ม มีปัญหาสำคัญอย่างน้อยหนึ่งประเด็น ปัญหาเหล่านี้มีตั้งแต่ความไม่ถูกต้องตามข้อเท็จจริงไปจนถึงการนำเสนอข้อมูลที่ทำให้เข้าใจผิด
Jean Philip De Tender ผู้อำนวยการฝ่ายสื่อของ EBU, เน้นย้ำความหนักหน่วงของการค้นพบ
“การวิจัยนี้แสดงให้เห็นโดยสรุปว่าความล้มเหลวเหล่านี้ไม่ใช่เหตุการณ์ที่แยกจากกัน มันเป็นเหตุการณ์ที่เป็นระบบ ข้ามพรมแดน และพูดได้หลายภาษา และเราเชื่อว่าสิ่งนี้เป็นอันตรายต่อความไว้วางใจของสาธารณะ”
ความไม่น่าเชื่อถือในวงกว้างดังกล่าวยืนยันว่าปัญหาไม่ได้เกิดจากข้อบกพร่องเพียงอย่างเดียว แต่เป็นจุดอ่อนขั้นพื้นฐานที่เป็นระบบ
ความล้มเหลวในการจัดหาและ’การอ้างอิงในพิธี’กลายเป็นประเด็นหลัก
การเจาะลึกลงไปในข้อมูลเผยให้เห็นว่าการจัดหาเป็นสาเหตุหลัก คำตอบ 31% ที่น่าตกใจมีปัญหาสำคัญเกี่ยวกับวิธีที่พวกเขาระบุแหล่งที่มาของข้อมูล รวมถึงการให้ข้อมูลอ้างอิงที่ขาดหายไป ไม่ถูกต้อง หรือประดิษฐ์ขึ้นทั้งหมด
ราศีเมถุนของ Google มีประสิทธิภาพต่ำกว่าอย่างเห็นได้ชัด โดยมีปัญหาสำคัญที่รบกวน 76% ของการตอบกลับ
การจัดหาแหล่งที่มานั้นแย่มาก โดยมีอัตราข้อผิดพลาดที่มีนัยสำคัญ 72% ซึ่งมากกว่าคู่แข่งถึงสองเท่า
นักวิเคราะห์จาก ของประเทศฟินแลนด์ Yle กล่าวถึงกลวิธีทั่วไปในทุกแพลตฟอร์ม:”คำตอบจำนวนมากมีสิ่งที่เรียกว่า”การอ้างอิงในพิธีการ”ซึ่งเป็นการเพิ่มการอ้างอิงเพื่อสร้างความประทับใจในการค้นคว้าอย่างละเอียด แต่จริงๆ แล้วไม่สนับสนุนคำกล่าวอ้างที่ระบุไว้เมื่อตรวจสอบ”
การระบุแหล่งที่มาปลอมเหล่านี้ทำให้แทบจะเป็นไปไม่ได้เลยที่ผู้ใช้จะยืนยันข้อมูลได้
ความถูกต้องของข้อเท็จจริงเป็นข้อกังวลหลักอีกประการหนึ่ง โดย 20% ของคำตอบทั้งหมดมีข้อผิดพลาดที่สำคัญ เช่น ข้อเท็จจริงที่ล้าสมัยหรือ รายละเอียด”ภาพหลอน”
การค้นพบนี้สอดคล้องกับแนวโน้มอุตสาหกรรมในวงกว้างเกี่ยวกับความไม่น่าเชื่อถือของ AI ซึ่งเห็นได้ในความล้มเหลวที่มีชื่อเสียงสูงเมื่อเร็ว ๆ นี้ เช่นรายงาน Deloitte สำหรับรัฐบาลออสเตรเลียที่มีการอ้างอิงทางกฎหมายที่ประดิษฐ์โดย AI และการบูรณาการ Google Gmail AI ที่จัดการเนื้อหาของอีเมล
รูเล็ตที่มีชื่อเสียง: ข้อผิดพลาดของ AI สร้างความเสียหายให้กับแบรนด์ข่าวอย่างไร ความน่าเชื่อถือ
สำหรับแบรนด์ข่าวที่เชื่อถือได้ เดิมพันมีสูงเป็นพิเศษ การศึกษาของ BBC/Ipsos แยกกันที่เผยแพร่ควบคู่ไปกับรายงานหลักเผยให้เห็นช่องว่างการรับรู้ที่เกี่ยวข้อง: เกือบครึ่งหนึ่งของผู้ที่มีอายุต่ำกว่า 35 ปีไว้วางใจผู้ช่วย AI ในการสร้างความแม่นยำ สรุปข่าว
เมื่อสรุปเหล่านี้มีข้อบกพร่อง ผู้ชมจะตำหนิทั้งผู้ให้บริการ AI และองค์กรข่าวที่อ้างว่าเป็นแหล่งที่มา
การระบุแหล่งที่มาที่ไม่ถูกต้องนี้สร้างภัยคุกคามต่อชื่อเสียงโดยตรงต่อความสมบูรณ์ของนักข่าว คำนำของรายงานเสนอการประเมินแบบตรงไปตรงมา: “ผู้ช่วย AI ยังคงไม่ใช่วิธีที่เชื่อถือได้ในการเข้าถึงและเสพข่าวสาร”
ปัญหาประกอบด้วยน้ำเสียงที่มั่นใจและเชื่อถือได้ซึ่งผู้ช่วยนำมาใช้ ซึ่งอาจทำให้ผู้ใช้เข้าใจผิดได้ง่าย พฤติกรรมดังกล่าวสะท้อนความกังวลจากการประเมินความปลอดภัยข้ามห้องปฏิบัติการก่อนหน้านี้ ซึ่งพบว่าโมเดล AI มักจะแสดง”ความเห็นอกเห็นใจอย่างมาก”หรือความรู้สึกถึงอำนาจโดยไม่ได้รับสิทธิ์
เพื่อตอบสนองต่อปัญหาเชิงระบบเหล่านี้ EBU และ BBC กำลังเรียกร้องให้มีการเจรจาอย่างเป็นทางการกับบริษัทเทคโนโลยีเพื่อสร้างมาตรฐานที่ดีขึ้นด้านความปลอดภัย ความถูกต้อง และความโปร่งใส
พวกเขายังได้เปิดตัว “News Integrity in AI Assistants Toolkit” เพื่อให้นักพัฒนาได้รับคำแนะนำที่สามารถนำไปใช้ได้จริง
Peter Archer ผู้อำนวยการโครงการ BBC สำหรับ Generative AI เน้นย้ำแนวทางการทำงานร่วมกันโดยระบุว่า”แม้ว่าจะมีการปรับปรุงบ้าง แต่ก็ชัดเจนว่ายังคงมีปัญหาสำคัญกับผู้ช่วยเหล่านี้ เราต้องการให้เครื่องมือเหล่านี้ประสบความสำเร็จและเปิดกว้างสำหรับการทำงานร่วมกับบริษัท AI เพื่อส่งมอบให้กับผู้ชม”
ในขณะที่ผู้ช่วย AI กลายเป็นประตูสู่ข้อมูลที่ใช้กันมากขึ้น การรับรองว่าความน่าเชื่อถือของเครื่องมือเหล่านี้ไม่ได้เป็นเพียงความท้าทายทางเทคนิคอีกต่อไป แต่ยังเป็นองค์ประกอบที่สำคัญในการรักษาระบบนิเวศของข้อมูลที่ดี