นักวิจัยจากมหาวิทยาลัยที่โดดเด่นทั่วโลกกำลังซ่อนคำสั่งลับในเอกสารวิชาการของพวกเขาเพื่อหลอกระบบตรวจสอบที่ขับเคลื่อนด้วย AI เพื่อให้ข้อเสนอแนะในเชิงบวก

การโจมตีที่มองไม่เห็นเกี่ยวกับความสมบูรณ์ของการทบทวนเพื่อน

รูปแบบใหม่ของเกมวิชาการที่รู้จักกันดี เทคนิคนี้เกี่ยวข้องกับคำแนะนำในการฝังผู้อ่านของมนุษย์ แต่ตรวจพบได้โดยแบบจำลองภาษาขนาดใหญ่ รายงานโดยตัวถอดรหัส รายละเอียดตัวอย่างมากมาย

แจ้งให้ทราบตั้งแต่ทู่ บทความหนึ่งจาก Kaist สั่งให้ AI สรรเสริญ“ การมีส่วนร่วมที่มีผลกระทบความเข้มงวดของระเบียบวิธีและความแปลกใหม่ที่ยอดเยี่ยม” การปฏิบัติที่พบในเอกสารจากสถาบันในแปดประเทศรวมถึงจีนและสหรัฐอเมริกา

กับดักผู้ตรวจสอบที่ขี้เกียจหรือการประพฤติมิชอบอย่างชัดเจน?

การเปิดเผยได้แยกชุมชนวิชาการ ศาสตราจารย์มหาวิทยาลัย Waseda คนหนึ่งเกี่ยวข้องกับการปกป้องชั้นเชิงโดยอ้างว่า“ เป็นเคาน์เตอร์ต่อต้าน’ผู้ตรวจสอบขี้เกียจ’ที่ใช้ AI” มุมมองนี้ทำให้เกิดพรอมต์เป็นฮันนีพ็อตเพื่อจับผู้ตรวจสอบที่ละเมิดกฎการประชุมโดยใช้ AI.

อย่างไรก็ตามเหตุผลนี้ถูกปฏิเสธอย่างกว้างขวาง Satoshi Tanaka ผู้เชี่ยวชาญด้านความซื่อสัตย์ด้านการวิจัยที่มหาวิทยาลัยเกียวโตฟาร์มาซูติคอลเรียกมันว่า”ข้อแก้ตัวที่น่าสงสาร”

รองศาสตราจารย์จาก Kaist ซึ่งมีการถอนกระดาษร่วมกัน พวกเขากล่าวว่า“ การใส่พรอมต์ที่ซ่อนอยู่นั้นไม่เหมาะสมเพราะมันส่งเสริมการตรวจสอบในเชิงบวกแม้ว่าการใช้ AI ในกระบวนการตรวจสอบนั้นเป็นสิ่งต้องห้าม” สิ่งนี้เน้นถึงนักวิจัยที่ไต่เชือกในขณะนี้เดิน

ระบบในภาวะวิกฤตและการแย่งชิงกฎ

การโต้เถียงตอกย้ำระบบภายใต้แรงกดดันอันยิ่งใหญ่ ผู้เชี่ยวชาญอย่างทานากะเชื่อว่า“ กระบวนการทบทวนเพียร์ในสถาบันการศึกษา…อยู่ในภาวะวิกฤติ”” ซึ่งทำให้เครียดด้วยวัฒนธรรม“ ตีพิมพ์หรือพินาศ” ที่ทำให้วารสารวารสารน้ำท่วม น้ำท่วมนี้ครอบงำกลุ่มผู้ตรวจสอบอาสาสมัครที่ จำกัด ทำให้การล่อลวงของ AI ให้ความช่วยเหลือยากที่จะต้านทาน

สถานการณ์ของผู้เผยแพร่ใน AI นั้นมีการแยกส่วน สปริงเกอร์ธรรมชาติอนุญาตให้ใช้ AI ในกระบวนการตรวจสอบ ในทางตรงกันข้าม Elsevier ห้ามมันอย่างสมบูรณ์ อ้างถึง การขาดมาตรฐานแบบครบวงจรนี้สร้างพื้นที่สีเทาที่นักวิจัยบางคนกำลังเอาเปรียบ

ปัญหานี้ขยายเกินกว่าสถาบันการศึกษา ดังที่ Shun Hasegawa of Exawizards ระบุไว้การแจ้งเตือนที่ซ่อนอยู่ดังกล่าวเป็นปัญหาความสมบูรณ์ของข้อมูลที่กว้างขึ้นเนื่องจาก“ พวกเขาป้องกันไม่ให้ผู้ใช้เข้าถึงข้อมูลที่ถูกต้อง” ปัญหาหลักคือศักยภาพในการหลอกลวงเมื่อ AI เป็นคนกลาง บางคนในชุมชนวิทยาศาสตร์กำลังหารือเกี่ยวกับการแก้ไขทางเทคนิคเช่นลายน้ำ

หน่วยงานอุตสาหกรรมตอบสนองด้วยแนวทางใหม่

ในการตอบสนองอย่างรวดเร็วต่อเรื่องอื้อฉาวจริยธรรมที่สำคัญและองค์กรวิชาชีพได้เริ่มดำเนินการ ผู้มีอิทธิพล สมาคมสำหรับการคำนวณเครื่องจักร (ACM) ออกแถลงการณ์ href=”https://publicationethics.org/guidance/discussion-document/artificial-intelligence-ai-decision-Making”target=”_ blank”> คณะกรรมการจริยธรรมสิ่งพิมพ์ (COPE) ได้หารือเกี่ยวกับปัญหา ของ AI และการตรวจสอบแบบเพียร์ การเคลื่อนไหวเหล่านี้ส่งสัญญาณการรับรู้อย่างเป็นทางการของปัญหาในระดับอุตสาหกรรม ผู้เชี่ยวชาญยืนยันว่ากฎที่มีอยู่เกี่ยวกับการลอกเลียนแบบและการประดิษฐ์นั้นไม่เพียงพออีกต่อไป

Satoshi Tanaka เตือนว่า“ เทคนิคใหม่ (เพื่อหลอกลวงความคิดเห็นจากเพื่อน) ฉันทามติคือแนวทางที่ต้องพัฒนาเพื่อห้ามการกระทำใด ๆ ที่ทำลายกระบวนการตรวจสอบ Hiroaki Sakuma จากสมาคมการกำกับดูแล AI เชื่อว่า“ เรามาถึงจุดที่อุตสาหกรรมควรทำงานเกี่ยวกับกฎสำหรับวิธีการใช้ AI” แนะนำความจำเป็นในการใช้มาตรฐานข้ามอุตสาหกรรมเพื่อควบคุมเทคโนโลยีที่ทรงพลังนี้

Categories: IT Info