Meta กำลังชี้นำระบบปัญญาประดิษฐ์ล่าสุดคือ Llama 4 Series ไปสู่สิ่งที่ บริษัท เฟรมเป็นมุมมองที่สมดุลทางการเมืองมากขึ้น ด้วยการเปิดตัวรุ่น Llama 4 เช่น Scout และ Maverick รายละเอียดเมื่อวันที่ 6 เมษายน Meta เผชิญหน้ากับการรับรู้อคติทางการเมืองที่มีอยู่ในรูปแบบภาษาขนาดใหญ่ (LLMS)-AI คอมเพล็กซ์ที่ได้รับการฝึกฝนเกี่ยวกับข้อมูลเว็บมากมายเพื่อทำความเข้าใจและสร้างข้อความ
href=”https://proceedings.neurips.cc/paper_files/paper/2016/file/a486cd07e4ac3d270571622f4f316ec5-paper.pdf href=”https://www.science.org/doi/10.1126/science.aal4230?ref=404media.co”เป้าหมาย=”_ blank”> สร้างขึ้น ความจริง ที่กล่าวถึงในแวดวงวิชาการ) งบสาธารณะของเมตามุ่งเน้นไปที่การเบ้ทางการเมืองที่รับรู้อย่างตรงข้ามกับการมุ่งเน้นการวิจัยร่วมกันนั้น
“ เป็นที่รู้จักกันดีว่า LLMs ชั้นนำ href=”https://ai.meta.com/blog/llama-4-multimodal-intelligence/”target=”_ blank”> บล็อกประกาศอย่างเป็นทางการ 4 src=”https://winbuzzer.com/wp-content/uploads/2025/01/mark-zuckerberg-2025.jpg”>
สาเหตุตาม บริษัท ? “ นี่เป็นเพราะประเภทของข้อมูลการฝึกอบรมที่มีอยู่บนอินเทอร์เน็ต”
คำอธิบายนี้มาพร้อมกับวัตถุประสงค์ที่ระบุไว้: การพัฒนาโมเดล AI โปร่งใสเกี่ยวกับการขาดมุมมองที่ถูกต้องเพียงครั้งเดียวแทนที่จะมุ่งมั่นที่จะสะท้อนมุมมองที่หลากหลาย 404 สื่อ ai. ร้านค้าบางแห่งเช่น
เมตายืนยันว่าครอบครัว Llama 4 รวมการปรับเปลี่ยนเฉพาะเพื่อจัดการกับความเอนเอียงทางการเมืองเหล่านี้ นางแบบตัวเองรวมถึง Llama 4 Scout ที่มีประสิทธิภาพและ Llama 4 Maverick ที่ทรงพลังใช้ประโยชน์จากสถาปัตยกรรมผสม (MOE)-เปิดใช้งานส่วนประกอบที่จำเป็นสำหรับงานที่กำหนด-และประมวลผลภาพและข้อความโดยธรรมชาติ Llama 4 Scout มีหน้าต่างบริบทโทเค็น 10 ล้านตัวทำให้สามารถประมวลผลบริบทเทียบเท่ากับ 7.5 ล้านคำพร้อมกัน ตามการรายงานของเมตาการทดสอบภายในแสดงให้เห็นว่าแบบจำลองเหล่านี้มีโอกาสน้อยที่จะลดค่าใช้จ่ายทางการเมือง บริษัท ยังอ้างว่าความไม่เท่าเทียมกันในการปฏิเสธตามอุดมการณ์ที่ชัดเจนของผู้ใช้นั้นต่ำกว่า 1%ซึ่งเป็นการสนับสนุนการเล่าเรื่องการดิ้นรนเพื่อความเป็นกลาง เฟรมเวิร์กความปลอดภัยที่ได้รับการปรับปรุงยังเป็นส่วนหนึ่งของแพ็คเกจรวมถึง ‘ llama ระบบการทดสอบตัวแทนที่น่ารังเกียจ) ซึ่งใช้ AI เพื่อจำลองการโจมตีและค้นหาช่องโหว่ที่เกี่ยวข้องกับการตอบสนองแบบเอนเอียงหรือเป็นอันตราย เครื่องมือดังกล่าวน่าจะเป็นส่วนสำคัญในการจัดการน้ำเสียงของโมเดลในเรื่องการเมืองที่ละเอียดอ่อน การมุ่งเน้นไปที่การปรับเอาท์พุทของ Llama 4 ไม่ได้เกิดขึ้นอย่างโดดเดี่ยว มันสอดคล้องกับการปรับเทียบนโยบายเนื้อหาของ Meta ที่กว้างขึ้นและถกเถียงกันอย่างมากในเครือข่ายสังคมออนไลน์ที่เริ่มคลี่คลายไปก่อนหน้านี้ในปี 2568 ในการย้ายที่ทำให้คู่ค้าประหลาดใจ Meta ประกาศในเดือนมกราคม href=”https://www.wired.com/story/metas-fact-checking-partners-blindsided/”target=”_ blank”> wired การปรับแต่ง Llama 4: Meta อ้างว่าได้รับความเป็นกลางทางการเมือง
นโยบายแพลตฟอร์มเปลี่ยน: การตรวจสอบข้อเท็จจริงสิ้นสุดลงคำพูดที่ถกเถียงกันอนุญาต
การพิสูจน์ให้เห็นถึงการหมุนตัวออกจากข้อเท็จจริงภายนอก “ ความตั้งใจที่ดีเท่าที่มีอยู่มากมายพวกเขาได้ขยายเวลาไปจนถึงจุดที่เราทำผิดพลาดมากเกินไปทำให้ผู้ใช้ของเราหงุดหงิดและบ่อยครั้งที่เข้ามาในการแสดงออกอย่างอิสระที่เรากำหนดไว้เพื่อเปิดใช้งาน ตัวตน. ตามที่รายงานโดย การสกัดกั้น วัสดุการฝึกอบรมที่รั่วไหล วาทกรรม”
การเปลี่ยนแปลงที่เฉพาะเจาะจงนี้กระตุ้นให้เกิดความขัดแย้งภายในที่คมชัด-อธิบายว่า”ความโกลาหลทั้งหมด”และการลงโทษภายนอกจากกลุ่มเช่น
การเปลี่ยนแปลงโดยเจตนานี้ ปรับใช้ ระยะเวลาของนโยบายเหล่านี้และการปรับ AI ได้รับความสนใจเนื่องจากภูมิทัศน์ทางการเมืองของสหรัฐฯ การประกาศในเดือนมกราคมของ Meta เป็นไปตามชัยชนะการเลือกตั้งของ Donald Trump และทรัมป์สาธารณะ อาหารค่ำหลังการเลือกตั้งระหว่าง Zuckerberg และ Trump และ บรรยากาศทางการเมืองและการเปลี่ยนแปลงภายในรูปแบบกลยุทธ์ของ Meta