Elon Musk, nền tảng xã hội X đang chuyển sang tích hợp trí tuệ nhân tạo vào tính năng kiểm tra thực tế đặc trưng của nó, cộng đồng ghi chú. Công ty đã công bố vào thứ ba, họ đang thí điểm một chương trình cho phép AI chatbots viết các bản nháp ban đầu của các ghi chú cung cấp bối cảnh cho các bài đăng có khả năng gây hiểu lầm. Hệ thống mới này sẽ hoạt động thông qua API của người viết ghi chú AI AI,”cho phép các nhà phát triển kết nối các mô hình AI khác nhau, bao gồm Grok Xiêu, với nền tảng. Con người vẫn chịu trách nhiệm. Ghi chú của họ sẽ hiển thị trên X nếu được mọi người tìm thấy hữu ích từ các quan điểm khác nhau-giống như Lôi

href=”https://twitter.com/CommunityNotes/status/1940132205486915917?ref_src=twsrc%5etfw”Target=”_ Blank”> Tình nguyện viên. Quyết định cuối cùng về việc một ghi chú có hữu ích hay không và được xuất bản sẽ vẫn nằm trong tay những người xếp loại, một nguyên lý cốt lõi của chương trình. Sáng kiến ​​này thể hiện một bước quan trọng đối với một mô hình con người lai cho kiểm duyệt nội dung, một khái niệm được nêu chi tiết trong lần đầu tiên được ra mắt dưới dạng BirdWatch vào năm 2021 . Chẳng hạn, đã được triển khai phiên bản riêng cho Facebook, Instagram và các chủ đề tại Hoa Kỳ kể từ tháng 3. sai lầm.”Mục tiêu của công ty, ông nói, là để cân bằng tốt hơn với biểu thức tự do. Nicola Mendelsohn, Trưởng phòng kinh doanh toàn cầu của Meta, đã làm rõ rằng hiện tại, không có gì thay đổi trong phần còn lại của thế giới vào lúc này; chúng tôi vẫn đang làm việc với những người kiểm tra thực tế trên toàn cầu.”Thành công của các hệ thống dựa trên cộng đồng này cũng đã thúc đẩy các tính năng tương tự từ Tiktok và Mục tiêu là tạo ra một vòng lặp đạo đức của người Viking”trong đó AI tạo ra các ghi chú và phản hồi của con người không chỉ Vets chúng mà còn cải thiện hiệu suất trong tương lai của AI. Rủi ro và tranh luận liên tục

Tuy nhiên, việc triển khai AI như một người kiểm tra thực tế đầy rủi ro. Một mối quan tâm chính là xu hướng được ghi chép lại của các mô hình ngôn ngữ lớn (LLM) đối với ảo giác”, tự tin trình bày thông tin được chế tạo như thực tế. Điều này có thể dẫn đến việc tạo ra các ghi chú có sức thuyết phục và được viết tốt nhưng không chính xác một cách nguy hiểm. Bài viết nghiên cứu thừa nhận điều này và những thách thức khác, chẳng hạn như nguy cơ hack sự hữu ích của Hồi giáo,”trong đó AI có thể học cách viết các ghi chú thu hút những người đánh giá sai lệch thay vì tuân thủ sự thật. Một dòng khổng lồ của các ghi chú do AI tạo ra có thể làm loãng sự chú ý của những người xếp loại, khiến việc phát hiện ra cả những nốt nhạc xấu và thông tin sai lệch quan trọng hơn. Những mối quan tâm này được lặp lại bởi các cựu giám đốc công nghệ, những người đã theo dõi các nền tảng này phát triển. Một cựu giám đốc điều hành meta, nói chuyện với NPR về công ty tăng sự phụ thuộc vào AI để đánh giá rủi ro, nêu rõ , Ghi chú cộng đồng của Hồi giáo đang ngày càng được chính phủ & phương tiện truyền thông kế thừa.”Sự không nhất quán này làm nổi bật sự căng thẳng vốn có trong một hệ thống được thiết kế cho tính khách quan nhưng thuộc sở hữu của một cá nhân duy nhất, thẳng thắn.

Các nhà phê bình chỉ ra rằng hệ thống có thể chậm và không nhất quán. Các nghiên cứu đã chỉ ra rằng nhiều bài đăng có chứa thông tin sai lệch không bao giờ nhận được một ghi chú, và khi chúng làm, ghi chú thường chỉ được nhìn thấy bởi một phần nhỏ của những người đã xem bài đăng gốc. Việc giới thiệu AI nhằm giải quyết các vấn đề tốc độ và quy mô, nhưng vẫn còn phải xem nếu nó có thể làm như vậy mà không ảnh hưởng đến chất lượng. Công ty có kế hoạch kiểm tra các ghi chú do AI tạo ra trong vài tuần với một nhóm nhỏ những người đóng góp. Dựa trên kết quả của phi công này, X sẽ quyết định có nên triển khai tính năng rộng hơn hay không. Thành công của mô hình lai này có thể đặt ra một tiêu chuẩn mới về cách kiểm duyệt nội dung trực tuyến, nhưng sự thất bại của nó có thể khuếch đại thông tin sai lệch mà nó được thiết kế để chống lại.

Categories: IT Info