Chỉ số An toàn AI 2024 vừa được Viện Tương lai Cuộc sống (FLI) công bố đã tiết lộ những thiếu sót rõ ràng trong các biện pháp an toàn AI của sáu công ty hàng đầu, bao gồm Meta, OpenAI và Google DeepMind.
AI Chỉ số An toàn xếp hạng Anthropic cao nhất với điểm “C”, nhưng các công ty còn lại—Meta, OpenAI, Google DeepMind, xAI và Zhipu AI—nhận được điểm số ảm đạm, trong đó Meta thất bại hoàn toàn.
Những phát hiện này nhấn mạnh nhu cầu cấp thiết về quản trị và quản lý rủi ro mạnh mẽ hơn trong một ngành đang chạy đua phát triển các hệ thống AI ngày càng tiên tiến.
Chủ tịch FLI Max Tegmark đã mô tả tình hình một cách thẳng thắn với IEEE Spectrum: “Tôi cảm thấy rằng lãnh đạo của các công ty này đang bị mắc kẹt trong một cuộc đua tới đáy mà không ai trong số họ có thể thoát ra được, dù họ có tốt bụng đến đâu.”
The FLI đã đánh giá các công ty theo sáu hạng mục, bao gồm đánh giá rủi ro, quản trị và chiến lược an toàn sinh tồn. Mặc dù ngành tập trung vào phát triển các hệ thống mạnh mẽ, báo cáo nêu bật khoảng cách đáng kể giữa năng lực công nghệ và các biện pháp an toàn hiệu quả.
Anthropic Dẫn đầu Nhóm với điểm “C” tầm thường
Anthropic nổi lên là công ty có thành tích tốt nhất trong Chỉ số, mặc dù điểm “C” cho thấy vẫn còn nhiều chỗ cần cải thiện.”Chính sách mở rộng có trách nhiệm”của công ty nổi bật là một ví dụ tích cực.
Chính sách này yêu cầu tất cả các mô hình phải trải qua đánh giá rủi ro nghiêm ngặt để xác định và giảm thiểu tác hại thảm khốc trước khi triển khai. Ngoài ra, Anthropic đã liên tục đạt được kết quả mạnh mẽ trong thời gian đã được thiết lập. tiêu chuẩn an toàn, đạt điểm “B-“trong hạng mục giải quyết các tác hại hiện tại, điểm cao nhất trong lĩnh vực đó.
Mặc dù có hiệu suất tương đối mạnh, Anthropic cũng bị chỉ trích vì thiếu chiến lược toàn diện để giải quyết quản lý sự tồn tại rủi ro—một vấn đề được chia sẻ bởi tất cả các công ty được đánh giá.
Nguồn: sáng kiến FutureOfLife
Những người đánh giá lưu ý rằng mặc dù Anthropic, OpenAI và Google DeepMind đã nêu rõ các phương pháp tiếp cận ban đầu đối với sự an toàn hiện hữu, nhưng những nỗ lực này vẫn còn sơ bộ và chưa đủ để giải quyết quy mô của thách thức.
Meta đạt điểm”F”khi mối lo ngại về an toàn tăng cao
Ở phía đối lập, Meta nhận điểm không đạt vì thực hành quản trị và an toàn không đầy đủ. Báo cáo đã xác định những lỗ hổng lớn trong Meta tính minh bạch, khuôn khổ trách nhiệm giải trình và các chiến lược an toàn hiện sinh. Việc thiếu các biện pháp an toàn có ý nghĩa đã làm dấy lên mối lo ngại về khả năng quản lý rủi ro của công ty liên quan đến hoạt động phát triển AI của mình.
Thành tích kém cỏi của Meta làm nổi bật một vấn đề rộng lớn hơn bên trong. Mặc dù có những khoản đầu tư đáng kể vào nghiên cứu AI, nhiều công ty vẫn chưa ưu tiên các cơ cấu quản trị cần thiết để đảm bảo công nghệ của họ an toàn và phù hợp với các giá trị xã hội. Sự thiếu ưu tiên này càng trở nên trầm trọng hơn do môi trường cạnh tranh khuyến khích việc triển khai nhanh chóng hơn là thận trọng.
Tính minh bạch: Một điểm yếu dai dẳng
Tính minh bạch là một lĩnh vực quan trọng khác mà các công ty hoạt động kém hiệu quả. Chỉ xAI và Zhipu AI hoàn thành các câu hỏi an toàn phù hợp do FLI gửi, giúp họ đạt điểm cao hơn một chút trong hạng mục này.
Các công ty khác đã không cung cấp thông tin chi tiết về các biện pháp đảm bảo an toàn nội bộ của họ, điều này càng nhấn mạnh thêm sự mù mờ thường xung quanh việc phát triển AI.
Đáp lại báo cáo, Google DeepMind đã ban hành tuyên bố bảo vệ cách tiếp cận của mình, nói rằng: “Mặc dù Chỉ mục kết hợp một số nỗ lực về an toàn AI của Google DeepMind và phản ánh các tiêu chuẩn được ngành áp dụng, nhưng chúng tôi cách tiếp cận toàn diện về AI sự an toàn vượt xa những gì được ghi lại.”
Tuy nhiên, những người đánh giá vẫn không bị thuyết phục, chỉ ra rằng nếu không minh bạch hơn thì không thể đánh giá liệu những tuyên bố này có chuyển thành hành động có ý nghĩa hay không.
Max Tegmark nhấn mạnh tầm quan trọng của áp lực bên ngoài, lưu ý, “Nếu một công ty không cảm thấy áp lực từ bên ngoài để đáp ứng các tiêu chuẩn an toàn thì các mọi người trong công ty sẽ chỉ coi bạn là một kẻ phiền toái, ai đó người đang cố gắng làm mọi thứ chậm lại và ném sỏi vào máy móc. Nhưng nếu những nhà nghiên cứu an toàn đó đột nhiên chịu trách nhiệm cải thiện danh tiếng của công ty, họ sẽ nhận được nguồn lực, sự tôn trọng và ảnh hưởng.”
Chiến lược rủi ro hiện tại: Một thất bại chung
Một trong những phát hiện đáng lo ngại nhất trong Chỉ số là sự thất bại phổ biến của các công ty trong việc phát triển các chiến lược rủi ro hiện hữu mạnh mẽ trong khi hầu hết các công ty đều công khai mong muốn tạo ra trí tuệ nhân tạo chung (AGI)—hệ thống AI có khả năng nhận thức ở cấp độ con người. —không ai nghĩ ra kế hoạch toàn diện để đảm bảo các hệ thống này luôn phù hợp với các giá trị của con người.
Tegmark nhấn mạnh mức độ nghiêm trọng của vấn đề này, cho biết, “Sự thật là không ai biết cách kiểm soát một loài mới thông minh hơn chúng ta nhiều.”
Stuart Russell cũng đồng tình với quan điểm này, cảnh báo, “Khi các hệ thống này ngày càng lớn hơn, có thể hướng công nghệ hiện tại không bao giờ có thể hỗ trợ các đảm bảo an toàn cần thiết.”
Việc thiếu các chiến lược an toàn hiện hữu cụ thể đặc biệt gây rắc rối khi khả năng ngày càng tăng của các hệ thống AI. Những người đánh giá nhấn mạnh rằng nếu không có khuôn khổ rõ ràng, những rủi ro do AGI gây ra có thể leo thang nhanh chóng.
Lịch sử của Chỉ số An toàn AI
Chỉ số An toàn AI được xây dựng dựa trên các chỉ số trước đó Các sáng kiến FLI, bao gồm cả “thư tạm dừng” năm 2023 được thảo luận rộng rãi, kêu gọi tạm dừng để phát triển AI tiên tiến
Bức thư được ký bởi hơn 33.700 cá nhân, bao gồm cả những tên tuổi nổi tiếng như Elon Musk và Steve Wozniak, cuối cùng đã bị các công ty mà nó nhắm tới bỏ qua. Chỉ số 2024 đại diện cho chỉ số mới nhất của FLI. nỗ lực buộc ngành phải chịu trách nhiệm bằng cách công khai chấm điểm các công ty về các biện pháp an toàn của họ.
Theo Stuart Russell , khoa học máy tính giáo sư tại UC Berkeley và một trong những người đánh giá báo cáo, “Các phát hiện cho thấy rằng mặc dù có rất nhiều hoạt động tại các công ty AI được đặt dưới tiêu đề ‘an toàn’, nhưng nó vẫn chưa hiệu quả lắm. Không có hoạt động nào hiện tại cung cấp bất kỳ hình thức đảm bảo an toàn định lượng nào.”
Chỉ số này nhằm mục đích thúc đẩy tính minh bạch, trao quyền cho các nhóm an toàn nội bộ và khuyến khích sự giám sát bên ngoài để ngăn chặn những rủi ro thảm khốc tiềm ẩn.
Lời kêu gọi giám sát quy định
Báo cáo FLI kết thúc bằng lời kêu gọi xây dựng các khuôn khổ quy định mạnh mẽ hơn để giải quyết các lỗ hổng được xác định trong Chỉ số. Tegmark đã đề xuất thành lập một cơ quan giám sát tương tự như. Cơ quan Quản lý Thực phẩm và Dược phẩm Hoa Kỳ (FDA) đánh giá Hệ thống AI trước khi chúng được triển khai
Một cơ quan như vậy có thể thực thi các tiêu chuẩn an toàn bắt buộc, chuyển áp lực cạnh tranh của ngành từ ưu tiên tốc độ sang ưu tiên an toàn.
Người đoạt giải Turing Yoshua Bengio, một thành viên tham gia hội thảo khác. trên Chỉ số, ủng hộ đề xuất này, tuyên bố, “Những đánh giá như thế này nêu bật các biện pháp an toàn và khuyến khích các công ty áp dụng các phương pháp tiếp cận có trách nhiệm hơn.”Bengio lập luận rằng sự giám sát độc lập là điều cần thiết để đảm bảo rằng các công ty không đi tắt đón đầu trong việc theo đuổi sự thống trị thị trường.
Chỉ số được biên soạn như thế nào
Năm 2024 Chỉ số An toàn AI được phát triển thông qua quy trình đánh giá tỉ mỉ do một nhóm gồm bảy chuyên gia độc lập chủ trì, bao gồm Bengio, Russell và người sáng lập Encode Justice Sneha Revanur.
Hội thảo đã đánh giá các công ty dựa trên 42 chỉ số trải dài trên sáu hạng mục: đánh giá rủi ro, tác hại hiện tại, tính minh bạch, quản trị, an toàn sinh tồn và truyền thông.
Phương pháp này kết hợp dữ liệu công khai, chẳng hạn như tài liệu chính sách, tài liệu nghiên cứu và báo cáo ngành, cùng với câu trả lời cho bảng câu hỏi tùy chỉnh. Tuy nhiên, sự tham gia hạn chế của các công ty vào quá trình này đã làm nổi bật những thách thức trong việc đạt được sự minh bạch trong ngành.
David Krueger, một thành viên tham gia hội thảo và nhà nghiên cứu AI, nhận xét: “Thật kinh hoàng khi chính những công ty mà lãnh đạo của họ dự đoán rằng AI có thể loài người cuối cùng không có chiến lược nào để ngăn chặn số phận như vậy.”
Ý nghĩa đối với tương lai của quản trị AI
Chỉ số an toàn AI năm 2024 vẽ ra một điều đáng lo ngại bức tranh về tình trạng quản trị AI hiện tại Trong khi các công ty như Anthropic đang có những bước tiến, những phát hiện tổng thể cho thấy sự thiếu chuẩn bị để quản lý rủi ro do các công nghệ AI tiên tiến gây ra.
Báo cáo kêu gọi hành động khẩn cấp. các giao thức an toàn mạnh mẽ hơn và sự giám sát theo quy định để đảm bảo rằng việc phát triển AI phù hợp với lợi ích xã hội.
Như Tegmark đã lưu ý “Nếu không có áp lực từ bên ngoài và những tiêu chuẩn khắt khe, cuộc đua phát triển AI có thể dẫn đến hậu quả thảm khốc.”