มานุษยวิทยากำลังอัปเดตนโยบายความเป็นส่วนตัวทำให้เป็นนักพัฒนา AI รายใหญ่ล่าสุดที่ใช้ข้อมูลแชทของผู้บริโภคสำหรับการฝึกอบรมแบบจำลองโดยค่าเริ่มต้น เริ่มต้นทันทีสำหรับผู้ใช้ใหม่และนำไปใช้กับผู้ใช้ที่มีอยู่ซึ่งไม่ได้เข้าร่วมในวันที่ 28 กันยายน บริษัท จะยังคงรักษาและวิเคราะห์การสนทนาจากบริการ Claude AI เพื่อปรับปรุงรูปแบบในอนาคต

การเปลี่ยนแปลงนี้สอดคล้องกับมานุษยวิทยากับคู่แข่งเช่น Google และ Meta การเคลื่อนไหวนั้นทวีความรุนแรงมากขึ้นในการอภิปรายอย่างต่อเนื่องเกี่ยวกับความเป็นส่วนตัวของผู้ใช้และการควบคุมข้อมูลในการแข่งขันสำหรับ AI ที่มีประสิทธิภาพมากขึ้นการวางภาระให้กับแต่ละบุคคลในการจัดการวิธีการใช้ข้อมูลส่วนบุคคลของพวกเขา

มานุษยวิทยาใช้นโยบายการฝึกอบรมการไม่เข้าร่วม href=”https://www.anthropic.com/news/updates-to-our-consumer-terms”target=”_ blank”> เลือกที่จะไม่เลือก อย่างชัดเจน สำหรับผู้ที่ได้รับความยินยอมมานุษยวิทยากำลังขยายระยะเวลาการเก็บข้อมูลอย่างมีนัยสำคัญจาก 30 วันก่อนหน้าถึงห้าปี

นโยบายนั้นกว้างในทำนองเดียวกันครอบคลุมไฟล์ที่ผู้ใช้อัปโหลดภาพถ่ายวิดีโอวิดีโอและภาพหน้าจอที่ผู้ใช้ถามคำถามเกี่ยวกับ ในทำนองเดียวกันแอป AI ของ Meta ซึ่งเปิดตัวในเดือนเมษายน 2568 ยังจำการแชทของผู้ใช้โดยค่าเริ่มต้นเพื่อปรับการตอบกลับส่วนบุคคลและพบว่าจับรายละเอียดที่ละเอียดอ่อนที่อนุมานจากการแชท

การบรรจบกันของกลยุทธ์ในการแข่งขัน ก่อนหน้านี้ Mount

เดือยทั่วทั้งอุตสาหกรรมนี้ได้รับการตอบโต้ด้วยการต่อต้านอย่างมีนัยสำคัญจากผู้สนับสนุนความเป็นส่วนตัวและก่อให้เกิดความท้าทายทางกฎหมาย นักวิจารณ์ยืนยันว่าระบบที่ไม่เข้าร่วมเหล่านี้ได้รับการออกแบบมาเพื่อกีดกันผู้ใช้จากการปกป้องข้อมูลของพวกเขา Ben Winters จากสหพันธ์ผู้บริโภคแห่งอเมริกาเรียกว่าการเปิดเผยและตัวเลือกดังกล่าว“ การเปิดเผยและตัวเลือกของผู้บริโภคเกี่ยวกับการตั้งค่าความเป็นส่วนตัวนั้นไม่ดีอย่างน่าหัวเราะ”

ภูมิทัศน์ทางกฎหมายก็กลายเป็นอันตรายมากขึ้นสำหรับ บริษัท เทคโนโลยี ในเดือนมกราคม 2568 มีการฟ้องร้องดำเนินคดีกับ LinkedIn โดยกล่าวหาว่าใช้ข้อความ inmail ส่วนตัวจากสมาชิกระดับพรีเมี่ยมเพื่อฝึกอบรมโมเดล AI ซึ่งถูกกล่าวหาว่าละเมิดพระราชบัญญัติการสื่อสารที่เก็บไว้

มีความซับซ้อนยิ่งขึ้น การพิจารณาคดีนี้ผู้เชี่ยวชาญด้านความเป็นส่วนตัวเช่น Jay Edelson ผู้เตือนว่า“ ความคิดที่ว่าคุณมีนักกฎหมายจำนวนมากที่กำลังจะทำทุกอย่างที่พวกเขาอยู่กับข้อมูลที่ละเอียดอ่อนที่สุดในโลก…ควรทำให้ทุกคนไม่สบายใจ”

กรณีเหล่านี้เน้นถึงความตึงเครียดที่เพิ่มขึ้น หลายคนรู้สึกว่ามีความสมดุลอยู่โดยจัสตินบรูคแมนรายงานผู้บริโภคที่สังเกตว่า“ ความคิดของตัวแทนคือมันทำงานในนามของฉัน-ไม่ได้พยายามจัดการกับฉันในนามของผู้อื่น”

การแบ่งแยกที่ชัดเจน มานุษยวิทยาระบุนโยบายการไม่เข้าร่วมใหม่ ไม่ได้ใช้กับข้อเสนอเชิงพาณิชย์ รวมถึง Claude สำหรับการทำงาน บริษัท กำลังเสนอการรับประกันความเป็นส่วนตัวที่แข็งแกร่งและการแยกข้อมูลให้กับลูกค้าธุรกิจที่จ่ายเงินให้กับข้อมูลองค์กรที่ละเอียดอ่อนและการควบคุมที่เข้มงวดยิ่งขึ้น สิ่งนี้สร้างระบบสองชั้นที่ผู้ใช้ทุกวันได้รับการปฏิบัติเป็นทรัพยากรสำหรับการฝึกอบรมแบบจำลอง

เมื่อ AI รวมเข้ากับชีวิตประจำวันมากขึ้นการแบ่งแยกนี้จะทำให้เกิดการถกเถียงกันมากกว่าความยุติธรรม ในฐานะนักวิจัยคนหนึ่งจากมหาวิทยาลัยอ๊อกซฟอร์ดแคโรไลน์กรีนกล่าวว่า“ มีปัญหาเล็กน้อยเมื่อพูดถึงการพัฒนา AI ซึ่งจริยธรรมและผู้คนเป็นความคิดที่สองมากกว่าจุดเริ่มต้น”

โฆษกเมตา เหมาะสำหรับพวกเขา”แต่สำหรับหลาย ๆ คนการตั้งค่าเริ่มต้นบอกเล่าเรื่องราวที่แตกต่าง

Categories: IT Info