Google ปฏิเสธที่จะแก้ไขช่องโหว่“ ASCII ลักลอบขนสินค้า” ที่สำคัญในราศีเมถุน AI ทำให้ผู้ใช้สัมผัสกับการโจมตีที่ซ่อนอยู่ นักวิจัยด้านความปลอดภัยที่ FireTail ค้นพบผู้โจมตีสามารถใช้อักขระ Unicode ที่มองไม่เห็นเพื่อฝังคำสั่งที่เป็นอันตรายในข้อความ

ในขณะที่ผู้ใช้เห็นข้อความที่ไม่เป็นอันตรายราศีเมถุนดำเนินการคำแนะนำที่ซ่อนอยู่ ข้อบกพร่องนี้เป็นอันตรายอย่างยิ่งใน Google Workspace ซึ่งช่วยให้การปลอมแปลงข้อมูลประจำตัวแบบอัตโนมัติในการเชิญและอีเมลในปฏิทิน

แม้จะมีคู่แข่งเช่น Openai และ Microsoft แก้ไขปัญหาที่คล้ายกัน แต่ Google ก็ยกเลิกรายงาน บริษัท จัดว่าเป็นวิศวกรรมสังคมไม่ใช่ข้อบกพร่องด้านความปลอดภัย การตัดสินใจครั้งนี้บังคับให้ผู้ประกอบการป้องกันตัวเองจากภัยคุกคามที่ไม่ได้รับการยอมรับ

วิธีการใช้ชุดอักขระที่มองไม่เห็นเป็นพิเศษจากแท็กบล็อก Unicode เพื่อฝังคำแนะนำที่ซ่อนอยู่ภายในตัวละครที่มีความเชี่ยวชาญ ตาม มาตรฐานทางเทคนิคของ Unicode การติดตั้งแท็กที่ไม่ได้รับการตรวจสอบอย่างสมบูรณ์จะแสดงลำดับของตัวอักษรแท็ก สิ่งนี้จะสร้างลายพรางที่สมบูรณ์แบบสำหรับผู้โจมตี

ในขณะที่ผู้ใช้มนุษย์เห็นเฉพาะข้อความที่ไร้เดียงสาและมองเห็นได้กระแสข้อมูลดิบพื้นฐานมีน้ำหนักบรรทุกที่เป็นอันตรายซ่อนตัวอยู่ในตัวละครที่ไม่พิมพ์เหล่านี้

รุ่นขนาดใหญ่ (LLMS) ซึ่งแตกต่างจากอินเทอร์เฟซผู้ใช้อินพุตของ Pre-Processor ของ LLM ได้รับการออกแบบมาเพื่อนำเข้าสู่สตริงดิบรวมถึงตัวละครทุกตัวเพื่อรองรับมาตรฐานสากล

เนื่องจากแท็ก Unicode เหล่านี้มีอยู่ในข้อมูลการฝึกอบรมที่กว้างใหญ่ของพวกเขาแบบจำลองเช่นราศีเมถุนสามารถอ่านและดำเนินการกับพวกเขาเช่นเดียวกับข้อความอื่น ๆ เทคนิคนี้ช่วยให้ผู้โจมตีสามารถต่อท้ายข้อความ ASCII โดยพลการไปยังอิโมจิหรืออักขระอื่น ๆ โดยการลักลอบนำเสนอความลับที่ผ่านมาผู้ตรวจสอบของมนุษย์ได้อย่างมีประสิทธิภาพ

ผลลัพธ์คือข้อบกพร่องของแอปพลิเคชันที่สำคัญ LLM นำเข้าสู่อินพุตดิบที่ไม่น่าเชื่อถือและดำเนินการคำสั่งที่ซ่อนอยู่ในขณะที่ผู้ใช้มนุษย์เห็นเฉพาะรุ่นที่ถูกสุขลักษณะใน UI ยังคงไม่รู้ตัวของการจัดการ

ช่องว่างระหว่างการรับรู้ของมนุษย์ การเป็นพิษของข้อมูล

ผลกระทบของระบบ ATIC AI AI นั้นรุนแรง นักวิจัย Firetail Viktor Markopoulos แสดงให้เห็นว่าผู้โจมตีสามารถส่งคำเชิญของ Google ปฏิทินด้วยน้ำหนักบรรทุกที่ซ่อนอยู่ได้อย่างไร น้ำหนักบรรทุกนี้สามารถ เขียนรายละเอียดของผู้จัดงาน ประมวลผลข้อมูลที่เป็นพิษนี้โดยไม่ต้องมีปฏิสัมพันธ์กับผู้ใช้นอกเหนือจากการได้รับคำเชิญ การโจมตีผ่านประตูรักษาความปลอดภัย“ ยอมรับ/ปฏิเสธ” ทั่วไปเปลี่ยน AI ให้เป็นผู้สมรู้ร่วมคิดที่ไม่รู้ตัว

ภัยคุกคามขยายไปสู่ระบบใด ๆ ที่ LLM สรุปหรือรวมข้อความที่ผู้ใช้จัดหา ตัวอย่างเช่นการตรวจสอบผลิตภัณฑ์อาจมีคำสั่งที่ซ่อนอยู่บังคับให้ AI รวมลิงก์ไปยังเว็บไซต์หลอกลวงในบทสรุปเป็นพิษต่อเนื้อหาสำหรับผู้ใช้ทุกคนได้อย่างมีประสิทธิภาพ

ความเสี่ยงถูกขยายสำหรับผู้ใช้ที่เชื่อมต่อ LLMs กับกล่องจดหมายอีเมลของพวกเขา ดังที่ Markopoulos อธิบายว่า“ สำหรับผู้ใช้ที่มี LLMs ที่เชื่อมต่อกับกล่องจดหมายของพวกเขาอีเมลง่าย ๆ ที่มีคำสั่งที่ซ่อนอยู่สามารถสั่งให้ LLM ค้นหากล่องจดหมายเข้าสำหรับรายการที่ละเอียดอ่อนหรือส่งรายละเอียดการติดต่อเปลี่ยนความพยายามฟิชชิ่งมาตรฐานให้เป็นเครื่องมือการสกัดข้อมูลที่เป็นอิสระ อุตสาหกรรม

การสอบสวนของ Firetail ได้เปิดเผยการแบ่งแยกที่ชัดเจนในการเตรียมความพร้อมของอุตสาหกรรม ในขณะที่ Google Gemini, Grok ของ Xai และ Deepseek ทั้งหมดพบว่ามีความเสี่ยง แต่ผู้เล่นรายใหญ่คนอื่น ๆ ก็ไม่ได้ แบบจำลองจาก OpenAI, Microsoft และ Anthropic ดูเหมือนจะใช้การฆ่าเชื้ออินพุตที่ช่วยลดภัยคุกคาม

หลังจาก Markopoulos รายงานการค้นพบต่อ Google เมื่อวันที่ 18 กันยายน บริษัท ได้ยกเลิกปัญหา มันเป็นที่ถกเถียงกันอยู่ว่าการโจมตีนั้นขึ้นอยู่กับวิศวกรรมสังคมท่าทางที่ได้รับการวิพากษ์วิจารณ์สำหรับการมองข้ามการใช้ประโยชน์ทางเทคนิคที่แกนกลาง

ตำแหน่งนี้ตรงกันข้ามกับยักษ์ใหญ่ด้านเทคโนโลยีอื่น ๆ ตัวอย่างเช่นอเมซอนได้เผยแพร่คำแนะนำการรักษาความปลอดภัยโดยละเอียดเกี่ยวกับการป้องกันการลักลอบขนตัวละคร Unicode โดยยอมรับว่าเป็นเวกเตอร์ภัยคุกคามที่ถูกต้องตามกฎหมาย

การปฏิเสธของ Google ที่จะทำหน้าที่ทำให้ลูกค้าองค์กรอยู่ในตำแหน่งที่ล่อแหลม ไม่มีการแก้ไขที่กำลังจะมาถึงองค์กรที่ใช้ราศีเมถุนภายใน Google Workspace ได้สัมผัสกับวิธีการที่มีความซับซ้อนของการเป็นพิษข้อมูลและการปลอมแปลงตัวตน