Meta membimbing sistem kecerdasan buatan terbaru, siri Llama 4, ke arah apa yang bingkai syarikat sebagai sudut pandang yang lebih seimbang secara politik. Dengan pelepasan model Llama 4 seperti Scout dan Maverick yang terperinci pada 6 April, Meta berhadapan dengan persepsi bias politik yang wujud dalam model bahasa besar (LLMS)-AI kompleks yang dilatih dalam data web yang luas untuk memahami dan menghasilkan teks.

href=”https://proceedings.neurips.cc/paper_files/paper/2016/file/a486cd07e4ac3d270571622222222222 href=”https://www.science.org/doi/10.1126/science.aal4230?ref=404Media.co”Target=”_ Blank”> Ditubuhkan fakta dibincangkan dalam kalangan akademik), fokus awam mempunyai masalah dengan bias-khususnya, secara sejarah mereka telah bersandar kiri ketika datang ke topik politik dan sosial yang dibahaskan,”meta mengakui dalam pengumuman itu src=”https://winbuzzer.com/wp-content/uploads/2025/01/mark-zuckerberg-2025.jpg”>

penyebabnya, menurut syarikat itu?”Ini disebabkan oleh jenis data latihan yang terdapat di Internet.”  404 media kedudukan grok ai. Sesetengah cawangan, seperti

Tuning llama 4: Meta mendakwa keuntungan neutraliti politik

meta menegaskan bahawa keluarga Llama 4 menggabungkan pelarasan khusus untuk menangani kecederaan politik ini. Model-model itu sendiri, termasuk Llama 4 Scout yang cekap dan Llama 4 Maverick yang kuat, menggunakan seni bina campuran-ekspersa (MOE)-mengaktifkan hanya komponen yang diperlukan untuk tugas tertentu-dan memproses imej dan teks secara asli. Llama 4 Pengakap terutamanya menampilkan tetingkap konteks 10 juta token, yang membolehkannya memproses konteks yang setara dengan kira-kira 7.5 juta perkataan secara serentak.

Syarikat itu juga mendakwa bahawa perbezaan dalam penolakan berdasarkan ideologi yang jelas pengguna kini berada di bawah 1%, memperkuat naratifnya yang berusaha untuk berkecuali. Rangka kerja keselamatan yang dipertingkatkan juga merupakan sebahagian daripada pakej, termasuk’

Fokus ini untuk menyesuaikan output Llama 4 tidak berlaku secara berasingan. Ia sejajar dengan pengubahsuaian yang lebih luas dan sangat diperdebatkan oleh dasar kandungan Meta di seluruh rangkaian sosialnya yang mula dibentangkan pada tahun 2025. Dalam langkah yang mengejutkan rakan-rakannya, Meta yang diumumkan pada bulan Januari ia telah membongkar program fakta pihak ketiga di Amerika Syarikat. href=”https://www.wired.com/story/metas-fact-checking-partners-blindsided/”target=”_ blank”> wired ,”Kami mendengar berita seperti orang lain […] tidak ada notis terlebih dahulu.”Sistem ini digantikan oleh Nota Komuniti, pendekatan yang didorong oleh pengguna di mana penyumbang menambah konteks kepada jawatan, dimodelkan selepas X (dahulunya Twitter). Ujian sistem ini bermula di Amerika Syarikat pada 18 Mac. Sama seperti berniat seperti banyak usaha ini, mereka telah berkembang dari masa ke masa ke titik di mana kita membuat terlalu banyak kesilapan, mengecewakan pengguna kita dan terlalu sering mendapat jalan bebas yang kita berikan untuk membolehkan,”tulis Kaplan, sambil menambah bahawa”satu hingga ke atas. identiti jantina. Seperti yang dilaporkan oleh The Intercept wacana.”

Perubahan khusus ini menimbulkan perbezaan pendapat dalaman yang tajam-digambarkan sebagai”kekacauan total”dan kutukan luar dari kumpulan seperti Makan malam pasca pemilihan antara Zuckerberg dan Trump dan . Langkah-langkah ini memacu spekulasi mengenai meta yang berpotensi memihak kepada pentadbiran yang masuk atau menyesuaikan diri dengan kritikan konservatif yang dirasakan. Secara dalaman, syarikat itu menavigasi peralihan yang ketara, yang diserlahkan oleh pemergian utama penyelidikan AI utama Joëlle Pineau, yang berkesan lewat Mei. Sekitar masa yang sama, Meta juga mengintegrasikan pasukan DEI yang spesifik ke dalam fungsi HR yang lebih luas.

Sumber data, peraturan global, dan jalan ke depan

Tindakan undang-undang yang berterusan, yang melibatkan plaintif seperti pelawak Sarah Silverman, mendakwa meta melatih modelnya pada dataset besar-besaran buku cetak rompak yang diperoleh dari perpustakaan bayang-bayang seperti Libgen menggunakan protokol perkongsian fail bittorrent-yang tidak disengajakan dengan pengagihan kandungan yang tidak disahkan. Seorang jurutera menulis, menurut dokumen yang difailkan dalam kes itu,”Torrenting dari komputer riba korporat yang dimiliki [meta] tidak merasa betul.”Gunakan”tuntutan. Konteks ini menambah kerumitan kepada penjelasan Meta yang menghubungkan kecenderungan semata-mata kepada sifat umum data internet, menimbulkan persoalan mengenai kaedah asal dan kaedah pengambilalihan data. Pengeluaran semula fakta-fakta pihak ketiga kini terhad kepada percubaan AS. href=”https://digital-strategy.ec.europa.eu/en/policies/digital-services-act”target=”_ blank”> Act Services Digital (DSA) , mengenakan kawalan yang lebih ketat. Ini jelas apabila Meta AI Chatbots akhirnya dilancarkan di Eropah pada bulan Mac selepas kelewatan yang ketara; Mereka tidak mempunyai ciri-ciri utama seperti penjanaan imej dan pemperibadian yang terdapat di Amerika Syarikat kerana sekatan GDPR menggunakan data pengguna untuk latihan. Pemecahan pengawalseliaan ini bermaksud bahawa Llama 4 yang diimbangi secara politik, sama seperti dasar-dasar kesederhanaan kandungan yang santai, boleh ditunjukkan terutamanya di Amerika Syarikat untuk masa depan yang boleh dijangka.

Categories: IT Info