Thuật toán xác định nội dung có hại của Meta đã gắn cờ nhầm tuyên bố sứ mệnh của mình là”đưa thế giới đến gần nhau hơn”, cho thấy mối tương quan cực kỳ cao giữa”Meta”và khái niệm”Tổ chức khủng bố”.
The sự cố đã dẫn đến việc sa thải nhanh chóng Sebastian Carlos, một nhân viên mới được thuê, người được giao nhiệm vụ đại tu thuật toán, đặt ra các câu hỏi về đạo đức và kỹ thuật về vai trò của AI trong việc kiểm duyệt nội dung, như anh kể lại trong một bài đăng trên blog.
Một cuộc đại tu táo bạo về kiểm duyệt nội dung
Cuộc tranh cãi bắt đầu khi nhà phát triển Sebastian Carlos gia nhập nhóm “Phát hiện nội dung có hại” của Meta trong tuần đầu tiên với tư cách là nhân viên mới. Được giao nhiệm vụ cải thiện hiệu quả và độ chính xác của hệ thống kiểm duyệt nội dung của Meta, họ đã xác định được những thiếu sót đáng kể trong thuật toán hiện có.
Carlos đề xuất viết lại triệt để bằng cách sử dụng Prolog, một ngôn ngữ lập trình nổi tiếng với khả năng xử lý lý luận mang tính biểu tượng và các mối quan hệ phức tạp. Bản chất khai báo của Prolog khiến nó đặc biệt phù hợp để phân tích các định nghĩa đa sắc thái về nội dung có hại.
Để tăng cường hiểu biết theo ngữ cảnh của thuật toán, cuộc cải tiến đã kết hợp các bộ dữ liệu đa dạng, bao gồm Wikipedia, văn bản tôn giáo và bách khoa toàn thư. Với cách tiếp cận đa diện này, Carlos nhằm mục đích đảm bảo tính toàn diện về văn hóa và bối cảnh. Tuy nhiên, cách tiếp cận này cũng đòi hỏi nguồn lực tính toán lớn.
Liên quan: Động thái ngừng kiểm tra thực tế của Zuckerberg được Trump và Musk ca ngợi, các nhà phê bình bị sốc
Carlos giải thích cách chỉ số chi phí nội bộ của Meta, được gọi một cách hài hước là “Những năm Guatemala”(tương đương với GDP của Guatemala), được viện dẫn để biện minh cho chi phí tính toán.
Thuật toán cải tiến được thiết kế để xử lý hàng triệu bài đăng mỗi ngày, phân tích nội dung của chúng dựa trên cấu trúc liên kết đạo đức rất chi tiết. Theo Carlos, Họ giải thích: “Hệ thống này không thiên vị; nó chỉ tuân theo các quy tắc mà chúng tôi đưa ra”.
Khi AI hướng nội
Trong lần chạy thử nghiệm lớn đầu tiên, thuật toán cập nhật đã gắn cờ tuyên bố sứ mệnh của Meta là nội dung có hại.
Việc gỡ lỗi không phát hiện ra lỗi logic nào. Thay vào đó, phân tích nâng cao của hệ thống đã xác định mối tương quan cao giữa thuật ngữ”Meta”và các cụm từ liên quan đến”khủng bố”và”sự tiếp cận quá mức của doanh nghiệp”. Kết quả không mong đợi nêu bật những thách thức trong việc đào tạo hệ thống AI để điều hướng các khái niệm mơ hồ như đạo đức và tác hại.
Như Carlos viết, tuyên bố bị gắn cờ đã thúc đẩy các cuộc thảo luận nội bộ ngay lập tức. Một số kỹ sư ca ngợi tính nghiêm ngặt của thuật toán, trong khi những người khác lo lắng về khả năng xảy ra hậu quả trong quan hệ công chúng. Một quản lý cấp cao đã nói với Carlos: “Chúng tôi không thể đạt được OKR của mình như thế này. này,”làm nổi bật sự căng thẳng và khoảng cách ngày càng tăng giữa độ chính xác về mặt kỹ thuật và các ưu tiên của tổ chức.
Hậu quả: Đạo đức và NDA
Vụ việc leo thang khi Carlos trình bày những phát hiện của mình trong một cuộc họp nhóm. Mặc dù chứng minh tính logic đằng sau các quyết định của thuật toán, công việc của nhân viên này đã gặp phải sự phản đối từ cấp trên. Ngay sau đó, anh ta bị sa thải và được yêu cầu ký một “NDA kép”, một cơ chế pháp lý khó hiểu được thiết kế để thực thi tính bảo mật nghiêm ngặt.
A NDA kép, còn được gọi là NDA song phương hoặc lẫn nhau, là một thỏa thuận ràng buộc về mặt pháp lý trong đó cả hai bên liên quan tiết lộ thông tin bí mật cho nhau và đồng ý bảo vệ thông tin đó khỏi bị tiết lộ thêm.
Carlos viết rằng luật sư của ông gợi ý rằng những thỏa thuận như vậy có thể vô hiệu hóa lẫn nhau, cho phép nhân viên thảo luận công khai về trải nghiệm của họ. Suy nghĩ về việc bị sa thải, ông kết luận rằng “Sự thật không phải lúc nào cũng phù hợp với các mục tiêu của công ty”.
Vai trò của AI trong việc kiểm duyệt
Các công cụ kiểm duyệt nội dung của Meta là không thể thiếu để quản lý lượng lớn nội dung do người dùng tạo trên nền tảng của nó. Sự phụ thuộc của công ty vào AI vừa là điều cần thiết vừa là nguồn gây tranh cãi, với các nhà phê bình chỉ ra các trường hợp hành động quá mức hoặc không đủ để chống lại tài liệu có hại.
Vụ việc làm tăng thêm sự giám sát, đặt ra câu hỏi về tính minh bạch và trách nhiệm giải trình trong việc ra quyết định của AI. Mặt khác, những người chỉ trích Meta có thể giải thích nó như một dấu hiệu về tính hiệu quả của các thuật toán.
Có lẽ các hoạt động và thành kiến về hệ tư tưởng của Meta thực sự giống với các hoạt động của một tổ chức khủng bố và thuật toán đã đúng? Không có chi tiết kỹ thuật, chúng tôi chỉ có thể đoán. Nhưng đối với Carlos, kết quả này đã đặt dấu chấm hết cho một khởi đầu vốn đã đầy khó khăn tại công ty.
Như Carlos cũng viết, kính thực tế tăng cường của Meta đã được sử dụng trong quá trình phỏng vấn của anh ấy khi một nhà phát triển có liên quan dựa vào chúng để giải quyết một vấn đề thách thức mã hóa, sửa chữa và cải tiến giải pháp đề xuất của Carlos. Sau đó, anh ta đối chất với người phỏng vấn về những phát hiện của mình và thậm chí sử dụng sự việc này để mặc cả mức lương cao hơn khi bắt đầu làm việc tại Meta, thực sự là tống tiền anh ta.
Bỏ qua câu chuyện bên lề này, kinh nghiệm của Carlos làm nổi bật những hậu quả không lường trước được của hệ thống AI và nêu bật những khó khăn của các thuật toán lập trình để hiểu và áp dụng các khái niệm mang tính sắc thái của con người như tác hại, đạo đức và an toàn.
Tuyên bố sứ mệnh được gắn cờ có thể là một điều bất thường hoặc trùng khớp chính xác. Dù thế nào đi nữa, Meta chắc chắn sẽ không đào sâu vào vấn đề này.