ท่ามกลางความขัดแย้งที่เพิ่มขึ้นเกี่ยวกับวิธีการที่ยักษ์ใหญ่ด้านเทคโนโลยีเก็บเกี่ยวข้อมูลผู้ใช้สำหรับ AI สถาบันอัลเลนสำหรับ AI (AI2) ได้แนะนำวิธีแก้ปัญหาที่เป็นไปได้ สถาปัตยกรรมรุ่นใหม่ของพวกเขา Flexolmo, ช่วยให้องค์กรสามารถฝึกอบรม AI ได้โดยไม่ต้องแบ่งปันข้อมูลดิบที่ละเอียดอ่อน วิธีการนี้มีจุดมุ่งหมายเพื่อส่งเสริมการทำงานร่วมกันของข้อมูลที่ปลอดภัยในสาขาต่างๆเช่นการดูแลสุขภาพและการเงินซึ่งความเป็นส่วนตัวเป็นสิ่งสำคัญยิ่ง โมเดล รหัส และ

นวัตกรรมหลักที่อยู่เบื้องหลัง Flexolmo คือการใช้สถาปัตยกรรมผสมผสาน (MOE) เฟรมเวิร์กนี้ถือว่า AI ไม่ได้เป็นนิติบุคคลเดียว แต่เป็นทีมผู้เชี่ยวชาญ มันช่วยให้วิธีการนวนิยายแบบกระจายในการฝึกอบรมแบบจำลองที่หลีกเลี่ยงความต้องการที่เก็บข้อมูลส่วนกลาง

สิ่งนี้แตกต่างจากการเรียนรู้แบบสหพันธรัฐโดยอนุญาตให้การฝึกอบรมแบบอะซิงโครนัสและให้เจ้าของการควบคุมการไม่เข้าร่วมเต็ม เจ้าของข้อมูลสามารถฝึกอบรมโมดูล“ ผู้เชี่ยวชาญ” ขนาดเล็กที่มีขนาดเล็กลงในชุดข้อมูลส่วนตัวของตนเองในพื้นที่เมื่อใดก็ตามที่เหมาะสมกับพวกเขา

โมดูลผู้เชี่ยวชาญซึ่งมีความรู้พิเศษสามารถนำกลับไปใช้กับโมเดล Flexolmo หลักโดยไม่มีข้อมูลดิบ การออกแบบแบบแยกส่วนนี้ให้ความยืดหยุ่นในระดับที่ไม่เคยเกิดขึ้นมาก่อนสำหรับผู้มีส่วนร่วม

ผู้ให้ข้อมูลสามารถเพิ่มหรือลบโมดูลผู้เชี่ยวชาญได้ตลอดเวลาโดยไม่ต้องเลือกอิทธิพลของข้อมูลในหรือออกจากโมเดลตามความต้องการ สิ่งนี้ทำให้พวกเขาควบคุมวิธีการใช้ข้อมูลของพวกเขาได้อย่างละเอียดคุณลักษณะที่ขาดหายไปในโมเดลดั้งเดิม

ใน

[เนื้อหาฝังตัว]

การควบคุมข้อมูลไปยังการทดสอบ

ข้อกังวลสำคัญกับวิธีการแบ่งปันแบบจำลองใด ๆ คือข้อมูลการฝึกอบรมดั้งเดิม AI2 ได้กล่าวถึงสิ่งนี้ในเชิงรุกโดยดำเนินการจำลองการโจมตีการสกัดข้อมูลในโมดูลผู้เชี่ยวชาญ FlexolMo ที่ผ่านการฝึกอบรมมาแล้ว

ผลลัพธ์ที่ได้มีแนวโน้ม นักวิจัยพบว่าอัตราการสกัดต่ำเพียง 0.7%ซึ่งชี้ให้เห็นว่าการกู้คืนข้อมูลส่วนตัวที่มีความหมายจากโมดูลผู้เชี่ยวชาญที่มีส่วนร่วมนั้นยาก ในขณะที่ไม่เป็นศูนย์อัตราต่ำนี้แสดงให้เห็นว่าการท่องจำคำต่อคำนั้นลดลงอย่างมีนัยสำคัญ

สิ่งนี้ให้เลเยอร์ของการประกันสำหรับผู้ทำงานร่วมกันที่มีศักยภาพ สำหรับองค์กรที่มีข้อกำหนดด้านความปลอดภัยสูงสุด AI2 บันทึกเฟรมเวิร์กเข้ากันได้กับความเป็นส่วนตัวที่แตกต่าง (DP) เทคนิคที่เพิ่ม’เสียงรบกวน’ทางคณิตศาสตร์เพื่อให้เป็นไปไม่ได้ที่จะติดตามข้อมูลกลับไปยังบุคคล

เจ้าของข้อมูลสามารถเลือกโมดูลผู้เชี่ยวชาญโดยใช้วิธีการ DP สิ่งนี้นำเสนอตัวเลือกความปลอดภัยด้วยความไวของข้อมูล

โดยการแยกโมเดลการปรับปรุงจากการแชร์ข้อมูลดิบ Flexolmo นำเสนอเส้นทางที่ทำงานได้ไปข้างหน้า มันเป็นวิธีสำหรับชุดข้อมูลที่มีค่าและเงียบเพื่อเพิ่มประสิทธิภาพของระบบนิเวศ AI ที่กว้างขึ้นโดยไม่บังคับให้เจ้าของข้อมูลยกเลิกการควบคุมอาจปลดล็อคยุคใหม่ของการทำงานร่วมกันที่ปลอดภัยและโปร่งใส AI

การแก้ปัญหาในเวลาที่เหมาะสม วิกฤตความไว้วางใจในการปฏิบัติข้อมูล สถาปัตยกรรมใหม่ดูเหมือนจะเป็นการตอบสนองโดยตรงต่อความท้าทายทางกฎหมายและจริยธรรมที่ติดอยู่กับ บริษัท เทคโนโลยีขนาดใหญ่

เมื่อสัปดาห์ที่แล้วศาลสั่งให้ Openai รักษาบทสนทนา CHATGPT หลายพันล้านครั้ง การเคลื่อนไหวดังกล่าวทำให้เกิดความชั่วร้ายจากผู้สนับสนุนความเป็นส่วนตัว

Google ยังอยู่ในที่นั่งร้อน เมื่อเร็ว ๆ นี้ บริษัท ได้ผลักดันการอัปเดต Android ที่อนุญาตให้ Gemini AI เข้าถึงแอพของบุคคลที่สามโดยค่าเริ่มต้นแทนที่การตั้งค่าความเป็นส่วนตัวก่อนหน้าของผู้ใช้บางคน สิ่งนี้ตามมาอ้างว่าราศีเมถุนกำลังเข้าถึงเอกสารของ Google ส่วนตัวโดยไม่ได้รับความยินยอม

ในขณะเดียวกัน Meta ได้เผชิญหน้ากับข้อบังคับที่สำคัญ มันถูกบังคับให้หยุดการฝึกอบรม AI ชั่วคราวเกี่ยวกับข้อมูลผู้ใช้ของสหภาพยุโรปในปี 2567 หลังจากแรงกดดันจาก DPC ของไอริช Max Schrems ผู้ก่อตั้ง Privacy Group ของ Noyb กล่าวถึงสถานการณ์“ ข่าวประชาสัมพันธ์เมตาอ่านเช่น’การลงโทษโดยรวม’เล็กน้อยหากชาวยุโรปยืนยันถึงสิทธิของเขาหรือเธอทั้งทวีปจะไม่ได้รับผลิตภัณฑ์ใหม่ที่เป็นประกายของเรา”

Melinda Claybaugh หัวหน้าฝ่ายความเป็นส่วนตัวระดับโลกของ Meta ยืนยันว่าสำหรับผู้ใช้ชาวออสเตรเลีย“ มีการรวบรวมโพสต์สาธารณะอย่างแท้จริงเว้นแต่จะมีการทำเครื่องหมายส่วนตัวโดยเฉพาะอย่างยิ่ง” เนื่องจากพวกเขาไม่ได้เสนอกลไกการไม่เข้าร่วมเช่นสหภาพยุโรปและสหรัฐอเมริกา ในเดือนพฤษภาคม 2568 มีการเปิดเผยว่า AI ได้รับการฝึกอบรมเกี่ยวกับบันทึกผู้ป่วยของ NHS 57 ล้านคนทำให้เกิดความกลัวเกี่ยวกับการระบุตัวตนใหม่ ดังที่นักวิจัยคนหนึ่งออกซ์ฟอร์ดตั้งข้อสังเกตว่า“ ผู้คนมักต้องการควบคุมข้อมูลของพวกเขาและพวกเขาต้องการทราบว่ากำลังจะไปที่ไหน”

ในเดือนเดียวกันนั้นมีความกังวลเกิดขึ้นกับ Claude 4 AI ของมานุษยวิทยา การวิจัยแสดงให้เห็นว่ามันสามารถพัฒนาความสามารถที่เกิดขึ้นจาก”การแจ้งเบาะแส”ซึ่งรายงานผู้ใช้อย่างอิสระสำหรับการรับรู้พฤติกรรม”ผิดศีลธรรม”