Meta đã tiết lộ một sự thay đổi đáng kể trong cách tiếp cận Trí tuệ nhân tạo (AI) với sự ra mắt của Frontier AI Framework , một chính sách nhằm kiểm soát việc phát hành các hệ thống AI có nguy cơ cao. Được công khai có sẵn, báo hiệu một sự khởi đầu từ chiến lược truy cập mở trước đó của Meta. Cách tiếp cận mới được đưa ra khi Meta phải đối mặt với những lo ngại về việc lạm dụng tiềm năng của các công nghệ AI mạnh mẽ của nó, chẳng hạn như các mô hình Llama. Tuy nhiên, sự cởi mở này đã dẫn đến những hậu quả không lường trước được, với các báo cáo cho thấy các tác nhân bất lợi đã tái sử dụng các mô hình này cho các mục đích độc hại, chẳng hạn như sự phát triển của các chatbot theo định hướng phòng thủ trái phép.
Những mối quan tâm bảo mật này đã khiến Meta xem xét lại chiến lược triển khai AI của mình. Bằng cách giới thiệu khung AI Frontier, Meta nhằm mục đích kiềm chế các rủi ro liên quan đến việc phát hành các hệ thống AI có thể được sử dụng cho các mục đích có hại. Meta viết,
Thông qua khung này, chúng tôi sẽ ưu tiên giảm thiểu nguy cơ gây hại thảm khốc, đảm bảo rằng các mô hình của chúng tôi không được sử dụng cho các mục đích độc hại ngoài ý muốn trong khi vẫn cho phép tiến bộ và đổi mới.”
Khung AI dựa trên rủi ro của Meta: Nguy cơ cao so với rủi ro nghiêm trọng
Frontier AI Framework phân loại các hệ thống AI thành hai loại riêng biệt: rủi ro cao và rủi ro nghiêm trọng. Cả hai loại được xác định bởi tác hại tiềm tàng mà các mô hình này có thể gây ra nếu bị khai thác, nhưng sự khác biệt nằm ở mức độ nghiêm trọng của hậu quả của chúng. của các tác nhân sinh học nguy hiểm hoặc vũ khí. Tạo ra vũ khí sinh học hoặc một cuộc tấn công mạng quy mô đầy đủ về cơ sở hạ tầng quan trọng. Như công ty nhấn mạnh, chúng tôi tin rằng bằng cách xem xét cả lợi ích và rủi ro trong việc đưa ra quyết định về cách phát triển và triển khai AI tiên tiến, có thể cung cấp công nghệ đó cho xã hội theo cách bảo tồn lợi ích của công nghệ đó cho Duy trì mức độ rủi ro thích hợp.”AI. Các tác nhân bên ngoài cho các mục đích ngoài ý muốn và có khả năng gây hại, chẳng hạn như sự phát triển của các công cụ phòng thủ có thể được khai thác cho các kết thúc độc hại.
Để có cái nhìn chi tiết về chiến lược truy cập mở trước đó và những thách thức mà Meta gặp phải.
Với khung AI Frontier mới, Meta đang thực hiện một cách tiếp cận thận trọng hơn nhiều Các cơ chế tại chỗ để ngăn chặn việc lạm dụng công nghệ có thể gây hại cho xã hội nói chung.”Các mô hình-Risk sẽ được xử lý. Các mô hình rủi ro quan trọng sẽ phải đối mặt với các điều khiển thậm chí còn nghiêm ngặt hơn, bao gồm việc dừng hoàn toàn trong quá trình phát triển cho đến khi chúng có thể được làm lại để giảm thiểu những nguy hiểm tiềm tàng của chúng. Mặc dù các công ty như Openai đã chọn cách truy cập nhiều hơn vào các mô hình của họ, thì Meta hướng tới việc hạn chế quyền truy cập thậm chí phản ánh thêm những lo ngại về việc sử dụng sai của AI. Nó có nghĩa là đối với sự phát triển AI của Meta
Sự khác biệt của Meta giữa các hệ thống AI có nguy cơ cao và nguy cơ quan trọng là rất quan trọng để hiểu cách công ty sẽ điều hướng sự phát triển và triển khai các mô hình của mình.
Các hệ thống AI có nguy cơ cao, theo định nghĩa của Meta, có thể tạo điều kiện cho các cuộc tấn công mạng hoặc hỗ trợ tạo ra các tác nhân sinh học có hại. Tuy nhiên, tác động tiềm năng của các mô hình này có thể sẽ ít nghiêm trọng hơn các hệ thống nguy cơ tới hạn, có khả năng gây ra tác hại rộng rãi, không kiểm soát được. Sự phổ biến của vũ khí sinh học hoặc gây ra sự gián đoạn đáng kể trong cơ sở hạ tầng quan trọng.
Bằng cách thiết lập sự khác biệt này, Meta đang tạo ra một khung giúp quản lý rủi ro AI hiệu quả hơn. Như Meta lưu ý, quyết định phát hành một mô hình AI cụ thể sẽ được đưa ra bằng cách xem xét cả lợi ích tiềm năng và rủi ro của nó. Rủi ro liên quan đến các công cụ AI mạnh mẽ phải được cân nhắc cẩn thận trước khi triển khai. Một bước ngoặt cho meta. Mặc dù công ty là người đề xuất sự cởi mở và khả năng tiếp cận trong phát triển AI, quyết định thực hiện các biện pháp kiểm soát chặt chẽ hơn vào thời điểm mà các rủi ro liên quan đến AI đã trở nên rõ ràng hơn. Mô hình-Access phản ánh các mối quan tâm rộng lớn hơn về sự an toàn và an toàn của các hệ thống AI tiên tiến, được minh họa bằng cách phát hành gần đây của hệ thống bảo vệ AI của Anthropic, được gọi là Các phân loại hiến pháp , được thiết kế để lọc cả lời nhắc đến và phản ứng do AI tạo ra. Liên kết với việc tăng lạm dụng của nó.
Ví dụ, các báo cáo của các tác nhân nước ngoài sử dụng các mô hình Meta, cho các mục đích liên quan đến quốc phòng làm nổi bật sự nguy hiểm của việc phát hành các mô hình AI mà không có đủ biện pháp bảo vệ. Các tổ chức nghiên cứu liên quan đến Quân đội Giải phóng Nhân dân Trung Quốc (PLA) đã phát triển một công cụ AI có tên là Chat Chatbit”sử dụng mô hình llama có sẵn công khai của Meta. Có thể thúc đẩy sự đổi mới, nó cũng có thể để cánh cửa mở cho các ứng dụng có khả năng gây hại của công nghệ