หนังสือพิมพ์ปากีสถานฉบับหนึ่งเน้นย้ำถึงปัญหาที่เพิ่มขึ้นของเอาท์พุต AI ที่ไม่ได้รับการตรวจสอบ หลังจากที่พิมพ์ข้อความช่างพูดจากแชทบอทผิดพลาด ในฉบับวันที่ 12 พฤศจิกายน Dawn ได้รวมข้อความที่สร้างโดย AI เพื่อสร้างบทความที่สร้างขึ้นอย่างเห็นได้ชัด”snappier”ซึ่งบังคับให้ต้องขอโทษต่อสาธารณะสำหรับการละเมิดกฎของตนเอง
ข้อผิดพลาดดังกล่าวไม่ใช่กรณีที่แยกได้ แต่เป็นส่วนหนึ่งของแนวโน้มความล้มเหลวของ AI ในวงกว้าง ตั้งแต่แหล่งข้อมูลทางกฎหมายปลอมที่ใช้ในศาลไปจนถึงรายงานของรัฐบาลที่มีข้อบกพร่อง ความเร่งรีบในการนำ AI กำเนิดมาใช้โดยไม่มีการตรวจสอบอย่างรอบคอบจากมนุษย์กำลังทำลายความไว้วางใจของสาธารณะ เป็นกระแสที่สร้างปัญหาร้ายแรงในโลกแห่งความเป็นจริงสำหรับสถาบันหลักๆ
“Do You Want Me to Do That Next?”: A Public AI Gaffe ของหนังสือพิมพ์
Dawn หนังสือพิมพ์ภาษาอังกฤษที่ได้รับการยอมรับอย่างสูงของปากีสถาน ตีพิมพ์บทความเกี่ยวกับการขายรถยนต์ที่ลงท้ายด้วยคำลงท้ายที่แปลกประหลาดซึ่งสร้างโดยเครื่องจักร แทนที่จะใช้ย่อหน้าสรุป บทความนี้กลับนำเสนอแชทบอทสุดคลาสสิก
AI ถามผู้ใช้ว่า”ถ้าคุณต้องการ ฉันสามารถสร้างเวอร์ชัน”สไตล์หน้าแรก”ที่ฉับไวยิ่งขึ้นด้วยสถิติบรรทัดเดียวที่ชัดเจนและตัวหนาพร้อมอินโฟกราฟิกที่พร้อมใช้งาน เลย์เอาต์—สมบูรณ์แบบสำหรับการสร้างผลกระทบสูงสุดต่อผู้อ่าน คุณต้องการให้ฉันทำเช่นนั้นต่อไปหรือไม่“
ฉันรู้ว่านักข่าวใช้ AI ในการทำงานของพวกเขา แต่นี่ยังมากไปหน่อย!
โต๊ะเพจธุรกิจรุ่งอรุณควรมีการแก้ไขย่อหน้าสุดท้ายเป็นอย่างน้อย!
😆😆😆 pic.twitter.com/JWNdHNWvnv
— โอมาร์ อาร์ คูไรชิ (@omar_quraishi) 12 พฤศจิกายน 2025
ผู้อ่านพบเห็นอย่างรวดเร็ว พฤติกรรมดังกล่าวแพร่กระจายอย่างรวดเร็วทางออนไลน์ ส่งผลให้หนังสือพิมพ์ต้องแก้ไขและขอโทษอย่างเป็นทางการ ในบันทึกที่แนบท้ายบทความเวอร์ชันออนไลน์ บรรณาธิการ ยอมรับ ว่า “รายงานของหนังสือพิมพ์ฉบับนี้เดิมมีการแก้ไขโดยใช้ AI ซึ่งเป็นการละเมิดนโยบาย AI ในปัจจุบันของ Dawn … การละเมิดนโยบาย AI เสียใจอย่างยิ่ง”
มีรายงานว่าอยู่ระหว่างการสืบสวนเหตุการณ์นี้ หลักเกณฑ์อย่างเป็นทางการจากหนังสือพิมพ์ ห้ามมิให้มีการใช้ AI เพื่อสร้างหรือแก้ไขเรื่องราวข่าวโดยปราศจากการควบคุมดูแลของมนุษย์อย่างเข้มงวด
แม้ว่า Dawn gaffe จะสร้างช่วงเวลาแห่งความอับอายในที่สาธารณะ แต่ก็ทำหน้าที่เป็นสัญลักษณ์ที่มีศักยภาพสำหรับปัญหาที่ลึกซึ้งและเป็นผลสืบเนื่องมากขึ้น ในอุตสาหกรรมต่างๆ การใช้งาน Generative AI ก่อนกำหนดโดยไม่มีการควบคุมดูแลที่เพียงพอจะนำไปสู่ความล้มเหลวที่มีชื่อเสียงมากมาย บ่อนทำลายมาตรฐานทางวิชาชีพและความไว้วางใจของสาธารณะ
ปัญหาเชิงระบบ: เมื่อ AI ภาพหลอนในสาขาที่มีเดิมพันสูง
ในสาขาวิชาชีพตั้งแต่กฎหมายไปจนถึงสาธารณสุข องค์กรต่างๆ กำลังค้นพบวิธีที่ยากลำบากที่โมเดลภาษาขนาดใหญ่ไม่สามารถเชื่อถือได้กับงานที่สำคัญ ปรากฏการณ์ที่รู้จักกันในชื่อภาพหลอนคือปรากฏการณ์ที่ AI ประดิษฐ์ข้อเท็จจริง แหล่งที่มา หรือข้อมูลอย่างมั่นใจ ได้รับการพิสูจน์แล้วว่าเป็นข้อบกพร่องที่คงอยู่และเป็นอันตราย
ตัวอย่างล่าสุดและมีค่าใช้จ่ายสูงมาจากโลกแห่งการให้คำปรึกษา บริษัทระดับโลก Deloitte ถูกบังคับให้คืนเงินจำนวน 97,000 ดอลลาร์ให้กับรัฐบาลออสเตรเลีย หลังจากพบว่ารายงานมูลค่า 440,000 ดอลลาร์ที่บริษัทจัดทำขึ้นเต็มไปด้วยการอ้างอิงที่ประดิษฐ์ขึ้นโดย AI
รายงานของบริษัทซึ่งเป็นการตรวจสอบระบบสวัสดิการของประเทศอย่างละเอียดอ่อน อ้างถึงหนังสือที่ไม่มีอยู่จริงและคดีความทางกฎหมายที่ยกมาไม่ถูกต้อง เดโบราห์ โอนีล วุฒิสมาชิกแรงงานออสเตรเลียกล่าวตำหนิอย่างรุนแรง โดยระบุว่า”ดีลอยต์มีปัญหาด้านสติปัญญาของมนุษย์ นี่คงจะน่าหัวเราะหากไม่ได้น่าเศร้านัก”
ปัญหาเฉียบพลันก็ปรากฏในภาครัฐเช่นกัน ในเดือนกรกฎาคม มีรายงานปรากฏว่า AI”Elsa”ใหม่ของสำนักงานคณะกรรมการอาหารและยาของสหรัฐอเมริกาซึ่งมีจุดประสงค์เพื่อเร่งการอนุมัติยา กลับสร้างการศึกษาทางการแพทย์ที่ไม่มีอยู่จริง
พนักงาน FDA ที่หงุดหงิดคนหนึ่งบรรยายให้ CNN ฟังว่าไม่น่าเชื่อถือ โดยระบุว่า”ภาพหลอนอย่างมั่นใจ”ในขณะที่อีกคนคร่ำครวญว่า”ฉันเสียเวลาไปมากเพียงเพราะต้องระมัดระวังมากขึ้น”
ในทำนองเดียวกัน ทนายความของบริษัท AI Anthropic ต้องขอโทษผู้พิพากษาอย่างเป็นทางการหลังจากที่ Claude AI ของพวกเขาเองได้คิดค้นการอ้างอิงทางกฎหมายที่ใช้ในการยื่นฟ้องต่อศาล
โดยเฉพาะอย่างยิ่ง วารสารศาสตร์ได้เห็นกรณีของการกำกับดูแลนี้ซ้ำแล้วซ้ำอีก ในกรณีที่คล้ายคลึงกันอย่างมากตั้งแต่เดือนตุลาคม นิตยสารเยอรมัน Der Spiegel ต้องแก้ไขบทความที่มีประโยคที่สร้างโดย AI ที่หลงทาง โดยเสนอให้เปลี่ยนโทนของข้อความ
ข้อผิดพลาดเหล่านี้ไม่ได้จำกัดอยู่ที่ ฟาร์มเนื้อหาระดับต่ำแต่ปรากฏในสื่อที่มีชื่อเสียงและเป็นที่ยอมรับ โดยเน้นถึงการแจกแจงอย่างเป็นระบบในขั้นตอนการทำงานของกองบรรณาธิการ
เหตุการณ์เหล่านี้ไม่ได้เกิดขึ้นอย่างโดดเดี่ยว การศึกษาระดับนานาชาติครั้งสำคัญซึ่งประสานงานโดย BBC และ European Broadcasting Union (EBU) เผยให้เห็นธรรมชาติที่เป็นระบบของความไม่น่าเชื่อถือนี้
หลังจากประเมินคำตอบมากกว่า 3,000 รายการ ผลการวิจัยพบว่าผู้ช่วย AI สร้างข้อผิดพลาดที่สำคัญใน 45% ของคำตอบที่เกี่ยวข้องกับข่าว Jean Philip De Tender ผู้อำนวยการด้านสื่อของ EBU อธิบายว่า”การวิจัยนี้แสดงให้เห็นโดยสรุปว่าความล้มเหลวเหล่านี้ไม่ได้แยกจากเหตุการณ์ที่เกิดขึ้นเป็นระบบ ข้ามพรมแดน และพูดได้หลายภาษา และเราเชื่อว่าสิ่งนี้เป็นอันตรายต่อความไว้วางใจของสาธารณะ”
ความเชื่อถือที่กัดเซาะ: ต้นทุนในโลกแห่งความเป็นจริงของ AI Slop ที่ไม่ได้ตรวจสอบ
ข้อมูลที่ผิดจาก AI ที่หยดลงอย่างต่อเนื่องกำลังสร้างความเสียหายที่จับต้องได้ต่อระบบนิเวศข้อมูลดิจิทัล สำหรับแพลตฟอร์มพื้นฐาน เช่น Wikipedia ผลที่ตามมากำลังเกิดขึ้น
มูลนิธิ Wikimedia เพิ่งรายงานปริมาณการเข้าชมมนุษย์ลดลงอย่างน่าตกใจถึง 8% โดยกล่าวโทษเครื่องมือค้นหา AI และแชทบอทโดยตรงที่ดูดกลืนผู้เยี่ยมชมโดยการสรุปเนื้อหาโดยไม่มีการระบุแหล่งที่มา
แนวโน้มดังกล่าวคุกคามรูปแบบที่ขับเคลื่อนโดยอาสาสมัครของสารานุกรม มาร์แชล มิลเลอร์ ผู้อำนวยการอาวุโสฝ่ายผลิตภัณฑ์ของ Wikimedia เตือนว่า”ด้วยการเข้าชมวิกิพีเดียน้อยลง อาสาสมัครจำนวนน้อยลงก็อาจเติบโตและเสริมเนื้อหาได้ และผู้บริจาครายบุคคลน้อยลงอาจสนับสนุนงานนี้”
ภายใน แพลตฟอร์มดังกล่าวกำลังต่อสู้กับการต่อสู้กับการส่งผลงานที่สร้างโดย AI ซึ่งอาสาสมัครคนหนึ่งอธิบายว่าเป็น”ภัยคุกคามที่มีอยู่”กระตุ้นให้ชุมชนใช้นโยบาย”การลบอย่างรวดเร็ว”เพื่อกำจัดสิ่งที่เลวร้ายที่สุด
ความล้มเหลวซ้ำแล้วซ้ำเล่าเหล่านี้ให้บทเรียนสำคัญเกี่ยวกับสถานะปัจจุบันของ AI ในท้ายที่สุด ความรับผิดชอบต่อข้อผิดพลาดไม่สามารถถ่ายโอนไปยังเครื่องได้
ดังที่ Cassie Kozyrkov อดีตหัวหน้านักวิทยาศาสตร์ด้านการตัดสินใจของ Google กล่าวไว้หลังจากบอตสนับสนุนสำหรับโปรแกรมแก้ไขโค้ด Cursor AI ได้คิดค้นนโยบายของบริษัทปลอมขึ้นมา “ความยุ่งเหยิงนี้สามารถหลีกเลี่ยงได้หากผู้นำเข้าใจว่า (1) AI ทำผิดพลาด (2) AI ไม่สามารถรับผิดชอบต่อข้อผิดพลาดเหล่านั้นได้ (ดังนั้นมันจึงตกอยู่กับคุณ) และ (3) ผู้ใช้เกลียดการถูกหลอกโดยเครื่องจักรที่วางตัวเป็น มนุษย์“
สิ่งที่เกิดขึ้นที่ Dawn เป็นเพียงเครื่องเตือนใจล่าสุดว่าในยุคของ AI ชั้นสุดท้ายที่ขาดไม่ได้ของการควบคุมคุณภาพยังคงเป็นการกำกับดูแลของมนุษย์อย่างขยันขันแข็ง