Meta đang hướng dẫn các hệ thống trí tuệ nhân tạo mới nhất của mình, Sê-ri Llama 4, hướng tới những gì công ty đóng khung như một quan điểm cân bằng chính trị hơn. Với việc phát hành các mô hình Llama 4 như Scout và Maverick chi tiết vào ngày 6 tháng 4, Meta đã đối mặt với nhận thức về sự thiên vị chính trị vốn có trong các mô hình ngôn ngữ lớn (LLM)-AI phức tạp được đào tạo về dữ liệu web rộng lớn để hiểu và tạo văn bản. href=”https://proceedings.neurips.cc/paper_files/paper/2016/file/a486cd07e4ac3d270571622f4f316ec5-paper.pdf?ref=404Media href=”https://www.science.org/doi/10.1126/science.aal4230?ref=404Media.co”Target=”_ Blank”> Được thành lập Thực tế được thảo luận trong giới học thuật), các tuyên bố công khai Meta, tập trung thẳng vào một sự sai lệch chính trị nhận thức, tương phản với trọng tâm nghiên cứu chung đó.
href=”https://ai.meta.com/blog/llama-4-multimodal-intellect/”Target=”_ Blank”> Blog thông báo chính thức của Llama 4
Nguyên nhân, theo công ty? Đây là do các loại dữ liệu đào tạo có sẵn trên Internet.” có dây , chúng tôi đã nghe tin tức giống như mọi người khác [không] thông báo trước.”Hệ thống này đang được thay thế bằng các ghi chú cộng đồng, một cách tiếp cận do người dùng điều khiển trong đó những người đóng góp thêm bối cảnh vào các bài đăng, được mô phỏng theo X (trước đây là Twitter). Thử nghiệm hệ thống này bắt đầu ở Mỹ vào ngày 18 tháng 3. Có một ý định tốt như nhiều nỗ lực này, họ đã mở rộng theo thời gian đến mức chúng tôi mắc quá nhiều sai lầm, làm nản lòng người dùng của chúng tôi và quá thường xuyên theo cách biểu hiện tự do mà chúng tôi đặt ra để kích hoạt,”và bản sắc giới tính. Theo báo cáo của Bữa tối sau bầu cử giữa Zuckerberg và Trump và . Những động thái này thúc đẩy sự suy đoán về meta có khả năng tìm kiếm sự ưu ái với chính quyền sắp tới hoặc điều chỉnh theo những lời chỉ trích bảo thủ. Trong nội bộ, công ty đang điều hướng những thay đổi đáng kể, được nhấn mạnh bởi sự ra đi của lãnh đạo nghiên cứu AI hàng đầu Joëlle Pineau, có hiệu lực vào cuối tháng 5. Đồng thời, Meta cũng đã tích hợp nhóm DEI cụ thể của mình vào các chức năng nhân sự rộng hơn. Các vụ kiện đang diễn ra, liên quan đến các nguyên đơn như diễn viên hài Sarah Silverman, Allege Meta đã đào tạo các mô hình của mình trên các bộ dữ liệu khổng lồ của các cuốn sách lậu có nguồn gốc từ các thư viện bóng tối như Libgen bằng cách sử dụng giao thức chia sẻ tệp Bittorrent; Một kỹ sư đã viết, theo các tài liệu được nộp trong trường hợp, Torrenting từ một máy tính xách tay công ty [sở hữu meta] không cảm thấy đúng.”sử dụng”khiếu nại. bối cảnh này làm tăng thêm sự phức tạp cho lời giải thích của meta, liên kết thiên vị chỉ với tính chất chung dữ liệu internet, đưa ra câu hỏi về nguồn gốc và các phương thức thu thập. việc kiểm tra thực tế bên thứ ba hiện đang bị giới hạn trong thử nghiệm hoa kỳ. href =https://digital-stregy.ec.europa.eu/en/policies/digital-service-act target =_ Blank> Act dịch vụ kỹ thuật số (DSA) , áp đặt kiểm soát chặt chẽ hơn. Điều này là hiển nhiên khi meta AI chatbots cuối cùng đã ra mắt ở châu Âu vào tháng 3 sau sự chậm trễ đáng kể; Chúng thiếu các tính năng chính như tạo hình ảnh và cá nhân hóa có sẵn ở Mỹ do các hạn chế của GDPR đối với việc sử dụng dữ liệu người dùng để đào tạo. Sự phân mảnh quy định này có nghĩa là LLAMA 4 được cân bằng chính trị, giống như các chính sách kiểm duyệt nội dung thoải mái, chủ yếu có thể biểu hiện trong Hoa Kỳ trong tương lai gần.