นักวิจัยจากมหาวิทยาลัยที่โดดเด่นทั่วโลกกำลังซ่อนคำสั่งลับในเอกสารวิชาการของพวกเขาเพื่อหลอกระบบตรวจสอบที่ขับเคลื่อนด้วย AI เพื่อให้ข้อเสนอแนะในเชิงบวก
รูปแบบใหม่ของเกมวิชาการที่รู้จักกันดี เทคนิคนี้เกี่ยวข้องกับคำแนะนำในการฝังผู้อ่านของมนุษย์ แต่ตรวจพบได้โดยแบบจำลองภาษาขนาดใหญ่ รายงานโดยตัวถอดรหัส รายละเอียดตัวอย่างมากมาย แจ้งให้ทราบตั้งแต่ทู่ บทความหนึ่งจาก Kaist สั่งให้ AI สรรเสริญ“ การมีส่วนร่วมที่มีผลกระทบความเข้มงวดของระเบียบวิธีและความแปลกใหม่ที่ยอดเยี่ยม” การปฏิบัติที่พบในเอกสารจากสถาบันในแปดประเทศรวมถึงจีนและสหรัฐอเมริกา การเปิดเผยได้แยกชุมชนวิชาการ ศาสตราจารย์มหาวิทยาลัย Waseda คนหนึ่งเกี่ยวข้องกับการปกป้องชั้นเชิงโดยอ้างว่า“ เป็นเคาน์เตอร์ต่อต้าน’ผู้ตรวจสอบขี้เกียจ’ที่ใช้ AI” มุมมองนี้ทำให้เกิดพรอมต์เป็นฮันนีพ็อตเพื่อจับผู้ตรวจสอบที่ละเมิดกฎการประชุมโดยใช้ AI. อย่างไรก็ตามเหตุผลนี้ถูกปฏิเสธอย่างกว้างขวาง Satoshi Tanaka ผู้เชี่ยวชาญด้านความซื่อสัตย์ด้านการวิจัยที่มหาวิทยาลัยเกียวโตฟาร์มาซูติคอลเรียกมันว่า”ข้อแก้ตัวที่น่าสงสาร”
รองศาสตราจารย์จาก Kaist ซึ่งมีการถอนกระดาษร่วมกัน พวกเขากล่าวว่า“ การใส่พรอมต์ที่ซ่อนอยู่นั้นไม่เหมาะสมเพราะมันส่งเสริมการตรวจสอบในเชิงบวกแม้ว่าการใช้ AI ในกระบวนการตรวจสอบนั้นเป็นสิ่งต้องห้าม” สิ่งนี้เน้นถึงนักวิจัยที่ไต่เชือกในขณะนี้เดิน การโต้เถียงตอกย้ำระบบภายใต้แรงกดดันอันยิ่งใหญ่ ผู้เชี่ยวชาญอย่างทานากะเชื่อว่า“ กระบวนการทบทวนเพียร์ในสถาบันการศึกษา…อยู่ในภาวะวิกฤติ”” ซึ่งทำให้เครียดด้วยวัฒนธรรม“ ตีพิมพ์หรือพินาศ” ที่ทำให้วารสารวารสารน้ำท่วม น้ำท่วมนี้ครอบงำกลุ่มผู้ตรวจสอบอาสาสมัครที่ จำกัด ทำให้การล่อลวงของ AI ให้ความช่วยเหลือยากที่จะต้านทาน สถานการณ์ของผู้เผยแพร่ใน AI นั้นมีการแยกส่วน สปริงเกอร์ธรรมชาติอนุญาตให้ใช้ AI ในกระบวนการตรวจสอบ ในทางตรงกันข้าม Elsevier ห้ามมันอย่างสมบูรณ์ อ้างถึง การขาดมาตรฐานแบบครบวงจรนี้สร้างพื้นที่สีเทาที่นักวิจัยบางคนกำลังเอาเปรียบ ปัญหานี้ขยายเกินกว่าสถาบันการศึกษา ดังที่ Shun Hasegawa of Exawizards ระบุไว้การแจ้งเตือนที่ซ่อนอยู่ดังกล่าวเป็นปัญหาความสมบูรณ์ของข้อมูลที่กว้างขึ้นเนื่องจาก“ พวกเขาป้องกันไม่ให้ผู้ใช้เข้าถึงข้อมูลที่ถูกต้อง” ปัญหาหลักคือศักยภาพในการหลอกลวงเมื่อ AI เป็นคนกลาง บางคนในชุมชนวิทยาศาสตร์กำลังหารือเกี่ยวกับการแก้ไขทางเทคนิคเช่นลายน้ำ ในการตอบสนองอย่างรวดเร็วต่อเรื่องอื้อฉาวจริยธรรมที่สำคัญและองค์กรวิชาชีพได้เริ่มดำเนินการ ผู้มีอิทธิพล สมาคมสำหรับการคำนวณเครื่องจักร (ACM) ออกแถลงการณ์ href=”https://publicationethics.org/guidance/discussion-document/artificial-intelligence-ai-decision-Making”target=”_ blank”> คณะกรรมการจริยธรรมสิ่งพิมพ์ (COPE) ได้หารือเกี่ยวกับปัญหา Satoshi Tanaka เตือนว่า“ เทคนิคใหม่ (เพื่อหลอกลวงความคิดเห็นจากเพื่อน) ฉันทามติคือแนวทางที่ต้องพัฒนาเพื่อห้ามการกระทำใด ๆ ที่ทำลายกระบวนการตรวจสอบ Hiroaki Sakuma จากสมาคมการกำกับดูแล AI เชื่อว่า“ เรามาถึงจุดที่อุตสาหกรรมควรทำงานเกี่ยวกับกฎสำหรับวิธีการใช้ AI” แนะนำความจำเป็นในการใช้มาตรฐานข้ามอุตสาหกรรมเพื่อควบคุมเทคโนโลยีที่ทรงพลังนี้ การโจมตีที่มองไม่เห็นเกี่ยวกับความสมบูรณ์ของการทบทวนเพื่อน
กับดักผู้ตรวจสอบที่ขี้เกียจหรือการประพฤติมิชอบอย่างชัดเจน?
ระบบในภาวะวิกฤตและการแย่งชิงกฎ
หน่วยงานอุตสาหกรรมตอบสนองด้วยแนวทางใหม่
Categories: IT Info