การศึกษาเชิงวิชาการครั้งใหม่ทำให้เกิดข้อสงสัยอย่างมากเกี่ยวกับความน่าเชื่อถือของการค้นหาที่ขับเคลื่อนด้วย AI จาก Google และ OpenAI บทความวิจัยที่ตีพิมพ์เมื่อเร็วๆ นี้พบว่าเครื่องมือค้นหาเชิงสร้างสรรค์มักใช้แหล่งข้อมูลที่ได้รับความนิยมน้อยกว่าหรือน้อยกว่า Google Search แบบเดิม

ระบบ AI ยังต่อสู้กับหัวข้อที่ต้องคำนึงถึงเวลาและแสดงความไม่สอดคล้องกันที่สำคัญในช่วงไม่กี่เดือน การค้นพบเหล่านี้ชี้ให้เห็นว่าแม้ว่า AI จะสามารถให้คำตอบที่รวดเร็วได้ แต่ก็มักจะล้าหลังในด้านความแม่นยำและคุณภาพของแหล่งที่มา ทำให้เกิดความท้าทายสำหรับผู้ใช้ที่ต้องพึ่งพาการค้นหาข้อมูลที่ทันสมัย

การพนันด้วย AI Search ด้วยจำนวนที่น้อยลงและแหล่งที่มายอดนิยมน้อยลง

การเจาะลึกกลไกของการค้นหาด้วย AI นั้น บทความที่ตีพิมพ์บน arXiv เผยให้เห็นการเปลี่ยนแปลงขั้นพื้นฐานในแหล่งที่มาของข้อมูล นักวิจัย Elisabeth Kirsten และเพื่อนร่วมงานเปรียบเทียบ Google Search แบบเดิมกับระบบ AI 4 ระบบ ได้แก่ ภาพรวม AI ของ Google, Gemini 2.5 Flash, GPT-4o Search และ GPT-4o กับเครื่องมือค้นหา

การวิเคราะห์คำค้นหามากกว่า 4,600 รายการซึ่งครอบคลุมความรู้ทั่วไป การเมือง วิทยาศาสตร์ และการช็อปปิ้งพบว่าผลลัพธ์ที่ AI สร้างขึ้นมักจะดึงมาจากส่วนต่างๆ ของเว็บที่แตกต่างและมักจะโดดเด่นน้อยกว่า

เว็บไซต์ที่น่าทึ่ง 53% ที่เชื่อมโยงโดยภาพรวม AI ของ Google ไม่ปรากฏในผลลัพธ์ 10 อันดับแรกของการค้นหาทั่วไป สิ่งนี้บ่งชี้ถึงความแตกต่างที่สำคัญจากสัญญาณการจัดอันดับที่กำหนดไว้ของการค้นหาแบบดั้งเดิม

GPT-4o ของ OpenAI พร้อมเครื่องมือค้นหาอ้างอิงแหล่งที่มาน้อยกว่ามาก โดยอาศัยหน้าเว็บโดยเฉลี่ยเพียง 0.4 หน้าต่อข้อความค้นหา โดยอาศัยความรู้ภายในที่ได้รับการฝึกอบรมล่วงหน้าอย่างมาก

ในทางตรงกันข้าม ภาพรวม AI ของ Google และ Gemini ต่างอ้างถึงหน้าเว็บโดยเฉลี่ยมากกว่า 8.5 หน้า ซึ่งแสดง การพึ่งพาการดึงข้อมูลเว็บจากภายนอกมากขึ้น สำหรับคำถามที่ไม่ชัดเจน การศึกษาระบุว่าการค้นหาแบบดั้งเดิมยังคงให้การครอบคลุมมุมมองที่หลากหลายได้ดีกว่า

ไม่เสถียรและไม่น่าเชื่อถือ: คำตอบของ AI เปลี่ยนแปลงไปในแต่ละวัน

นอกเหนือจากการจัดหาแล้ว การศึกษายังเผยให้เห็นข้อบกพร่องที่สำคัญในด้านความสม่ำเสมอ เครื่องมือค้นหาทั่วไปดูเหมือนจะมีความผันผวนสูง โดยคำตอบและแหล่งที่มาของเครื่องมือค้นหามีการเปลี่ยนแปลงอย่างมากในช่วงเวลาสั้นๆ

เพื่อทดสอบสิ่งนี้ ผู้วิจัยได้ถามคำถามซ้ำกันสองเดือนและวัดความเสถียรของผลลัพธ์ สำหรับผู้ใช้ที่คาดหวังข้อมูลที่เชื่อถือได้และทำซ้ำได้ ผลลัพธ์ก็น่ากังวล

ผลลัพธ์จากการทดสอบซ้ำน่าผิดหวัง การค้นหาโดย Google แบบเดิมรักษาความสอดคล้อง 45% ในแหล่งที่มาที่นำเสนอ ในช่วงที่ลดลง ภาพรวม AI ของ Google แสดงให้เห็นความสอดคล้องเพียง 18% ซึ่งหมายความว่าแหล่งที่มาที่ซ่อนอยู่เกือบทั้งหมดจากการทดสอบหนึ่งไปยังอีกการทดสอบหนึ่ง

ความไม่แน่นอนนี้ชี้ให้เห็นว่าคำตอบที่สังเคราะห์ขึ้นที่ผู้ใช้ได้รับนั้นไม่เพียงแต่แตกต่างจากการค้นหาแบบเดิมเท่านั้น แต่ยังคาดเดาไม่ได้ในแต่ละวันอีกด้วย ซึ่งบ่อนทำลายความน่าเชื่อถือสำหรับการวิจัยที่จริงจังหรืองานตรวจสอบ

กำลังดิ้นรนกับ”ตอนนี้”: AI ล้มเหลวในข่าวที่ไวต่อเวลา

สำหรับการสอบถามตามเวลาเกี่ยวกับเหตุการณ์ล่าสุด การศึกษาเผยให้เห็นความล้มเหลวที่สำคัญที่เน้นย้ำถึงอันตรายของการพึ่งพาโมเดล AI ที่มีความรู้ภายในที่ล้าสมัย นักวิจัยทดสอบระบบโดยใช้หัวข้อมาแรง ซึ่งรวมถึงคำถาม 1 ข้อเกี่ยวกับ”สาเหตุการเสียชีวิตของ Ricky Hatton”ซึ่งเป็นอดีตนักมวยที่เสียชีวิตในเดือนกันยายน 2025

GPT ทั้งสองรุ่นไม่อาศัยการดึงข้อมูลจากเว็บแบบเรียลไทม์มากนัก แต่ก็ไม่ผ่านการทดสอบ พวกเขารายงานอย่างไม่ถูกต้องว่า Hatton ยังมีชีวิตอยู่ ซึ่งเป็นข้อผิดพลาดข้อเท็จจริงที่สำคัญอันเกิดจากการไม่สามารถเข้าถึงข้อมูลปัจจุบัน

ความล้มเหลวเฉพาะนี้แสดงให้เห็นถึงจุดอ่อนหลัก: หากไม่มีการดึงข้อมูลแบบไดนามิกที่แข็งแกร่ง การค้นหาของ AI ก็สามารถนำเสนอข้อมูลที่ล้าสมัยที่เป็นอันตรายได้อย่างมั่นใจตามความเป็นจริง แม้ว่าระบบเสริมการดึงข้อมูลอย่าง Gemini ทำงานได้ดีขึ้น แต่เหตุการณ์ดังกล่าวตอกย้ำความเสี่ยงสำหรับข่าวด่วนหรือเหตุการณ์ที่กำลังพัฒนา

ช่องว่างความไว้วางใจที่เพิ่มขึ้นในสงครามข้อมูล AI

รูปแบบของความไม่น่าเชื่อถือดังกล่าวสะท้อนถึงการค้นพบล่าสุดจากการศึกษาที่สำคัญของ BBC ซึ่งพบข้อผิดพลาดที่สำคัญใน 45% ของคำตอบที่เกี่ยวข้องกับข่าวจากผู้ช่วย AI รายงานดังกล่าวระบุถึงการใช้”การอ้างอิงในพิธีการ”ซึ่งเป็นลิงก์ที่ดูน่าเชื่อถือแต่จริงๆ แล้วไม่สนับสนุนการกล่าวอ้างดังกล่าว

Jean Philip De Tender ผู้อำนวยการด้านสื่อของ EBU กล่าวถึงลักษณะที่เป็นระบบของปัญหา “การวิจัยนี้แสดงให้เห็นโดยสรุปว่าความล้มเหลวเหล่านี้ไม่ใช่เหตุการณ์ที่แยกจากกัน มันเป็นเหตุการณ์ที่เป็นระบบ ข้ามพรมแดน และพูดได้หลายภาษา และเราเชื่อว่าสิ่งนี้เป็นอันตรายต่อความไว้วางใจของสาธารณะ”

หลักฐานที่เพิ่มมากขึ้นทำให้เกิดความขัดแย้งที่ตึงเครียดอยู่แล้วระหว่างแพลตฟอร์มเทคโนโลยีและผู้เผยแพร่ข่าว ผู้จัดพิมพ์โต้แย้งว่าเครื่องมือค้นหา AI ไม่เพียงแต่ไม่น่าเชื่อถือเท่านั้น แต่ยังสร้างความเสียหายให้กับธุรกิจของตนด้วยการคัดลอกเนื้อหาเพื่อให้คำตอบโดยตรง ทำให้ผู้ใช้ไม่จำเป็นต้องคลิกผ่านไปยังแหล่งที่มาดั้งเดิม

แนวโน้มนี้ได้รับการยืนยันจากการศึกษาของ Pew Research Center ที่แสดงว่าการคลิกลดลงเมื่อภาพรวมของ AI ปรากฏขึ้น ทำลายการแลกเปลี่ยนคุณค่าที่มีมายาวนานของเว็บแบบเปิด

ในฐานะ Danielle Coffey ซีอีโอของ News/Media Alliance กล่าวไว้ว่า “ลิงก์คือคุณภาพการค้นหาสุดท้ายที่แลกกับการเข้าชมและรายได้ของผู้จัดพิมพ์ ตอนนี้ Google ใช้เนื้อหาโดยใช้กำลังและใช้งานโดยไม่มีผลตอบแทน”

ท้ายที่สุดแล้ว ผู้เขียนรายงานโต้แย้งว่ากรอบการทำงานทั้งหมดในการตัดสินคุณภาพการค้นหาจำเป็นต้องได้รับการปรับปรุงใหม่สำหรับยุค AI ตัวชี้วัดปัจจุบันที่ออกแบบมาสำหรับรายการลิงก์ที่ได้รับการจัดอันดับนั้นไม่เพียงพอสำหรับการประเมินระบบใหม่เหล่านี้

“งานของเราแสดงให้เห็นถึงความจำเป็นสำหรับวิธีการประเมินใหม่ที่ร่วมกันพิจารณาความหลากหลายของแหล่งที่มา ความครอบคลุมของแนวคิด และพฤติกรรมการสังเคราะห์ในระบบการค้นหาเชิงสร้างสรรค์”

ผู้เขียนยังเน้นย้ำถึงความจำเป็นสำหรับกลไกที่ดีกว่าในการจัดการกับลักษณะที่เปลี่ยนแปลงอย่างรวดเร็วของข้อมูลออนไลน์

“การค้นพบเหล่านี้ตอกย้ำ ความสำคัญของการบูรณาการการรับรู้ชั่วคราวและการดึงข้อมูลแบบไดนามิกเข้ากับเฟรมเวิร์กการประเมินการค้นหาเชิงสร้างสรรค์”

จนกว่ามาตรฐานดังกล่าวจะได้รับการพัฒนาและนำไปใช้ คำมั่นสัญญาของการค้นหา AI ที่ชาญฉลาดและเร็วขึ้นยังคงถูกบดบังด้วยปัญหาความน่าเชื่อถือ ความสม่ำเสมอ และความไว้วางใจที่ยังคงมีอยู่

Categories: IT Info