Meta đang hướng dẫn các hệ thống trí tuệ nhân tạo mới nhất của mình, Sê-ri Llama 4, hướng tới những gì công ty đóng khung như một quan điểm cân bằng chính trị hơn. Với việc phát hành các mô hình Llama 4 như Scout và Maverick chi tiết vào ngày 6 tháng 4, Meta đã đối mặt với nhận thức về sự thiên vị chính trị vốn có trong các mô hình ngôn ngữ lớn (LLM)-AI phức tạp được đào tạo về dữ liệu web rộng lớn để hiểu và tạo văn bản. href=”https://proceedings.neurips.cc/paper_files/paper/2016/file/a486cd07e4ac3d270571622f4f316ec5-paper.pdf?ref=404Media href=”https://www.science.org/doi/10.1126/science.aal4230?ref=404Media.co”Target=”_ Blank”> Được thành lập Thực tế được thảo luận trong giới học thuật), các tuyên bố công khai Meta, tập trung thẳng vào một sự sai lệch chính trị nhận thức, tương phản với trọng tâm nghiên cứu chung đó.

href=”https://ai.meta.com/blog/llama-4-multimodal-intellect/”Target=”_ Blank”> Blog thông báo chính thức của Llama 4

Nguyên nhân, theo công ty? Đây là do các loại dữ liệu đào tạo có sẵn trên Internet.”  có dây , chúng tôi đã nghe tin tức giống như mọi người khác [không] thông báo trước.”Hệ thống này đang được thay thế bằng các ghi chú cộng đồng, một cách tiếp cận do người dùng điều khiển trong đó những người đóng góp thêm bối cảnh vào các bài đăng, được mô phỏng theo X (trước đây là Twitter). Thử nghiệm hệ thống này bắt đầu ở Mỹ vào ngày 18 tháng 3. Có một ý định tốt như nhiều nỗ lực này, họ đã mở rộng theo thời gian đến mức chúng tôi mắc quá nhiều sai lầm, làm nản lòng người dùng của chúng tôi và quá thường xuyên theo cách biểu hiện tự do mà chúng tôi đặt ra để kích hoạt,”và bản sắc giới tính. Theo báo cáo của Bữa tối sau bầu cử giữa Zuckerberg và Trump