Steven Adler, người đã dành bốn năm tại Openai làm việc về nghiên cứu liên quan đến an toàn, đã công khai chỉ trích tốc độ mà các tổ chức đang theo đuổi trí tuệ nhân tạo (AGI). Tháng 11, Adler hiện đã đến X để nói lên nỗi sợ hãi của anh ta về tương lai của nhân loại nếu AI tiếp tục tiến lên mà không cần hoàn thành các công trình bảo vệ.
Trong một loạt các bài đăng, anh ấy đã đưa ra một cái nhìn thẳng thắn về những gì anh ấy cho là một chủng tộc”để phát triển AI mạnh mẽ hơn bao giờ hết, mặc dù có những thách thức an toàn lớn chưa được giải quyết.://winbuzzer.com/wp-content/uploads/2024/12/openai-profit-money.webp”>
,”Adler đã viết.”Sau sự phản ánh này về thời gian của anh ấy ở công ty, anh ấy đã truyền đạt sự e ngại về việc AI đang phát triển nhanh như thế nào.’Sẽ nuôi nấng một gia đình trong tương lai, hoặc tiết kiệm cho nghỉ hưu bao nhiêu, tôi không thể không tự hỏi: Liệu nhân loại thậm chí còn đưa nó đến điểm đó?”
Liên quan: Beret đã sử dụng chatgpt cho vụ nổ cybertruck, cảnh sát phát hành các logs trò chuyện
Việc khởi hành từ OpenAI: Động lực chính
Quyết định của Adler từ Openai gắn liền với Các đặt phòng anh bắt đầu thể hiện trong những tháng cuối cùng của mình ở đó.
Là một người trực tiếp tham gia vào việc đánh giá các khả năng của các hệ thống AI đang được phát triển, anh ta đã biết sự phức tạp của việc làm cho các mô hình an toàn trước khi phát hành công khai. nó
Ông thừa nhận rằng bản thân tiến trình không phải là vấn đề chính, mà là sự vắng mặt của các phương pháp đã được chứng minh để đảm bảo AI nâng cao phù hợp với các mục tiêu của con người. Chính phủ cho các cơ quan liên bang Hoa Kỳ với việc xử lý dữ liệu an toàn
Câu hỏi về sự liên kết của các hệ thống AI để tuân theo các hướng dẫn về đạo đức và có thể chấp nhận được về mặt xã hội là cuộc đua để đạt được AGI có thể vượt qua các nỗ lực để giải quyết sự liên kết, lưu ý trong một trong những bài viết của anh ấy, IM IMO, một cuộc đua AGI là một canh bạc rất rủi ro, với nhược điểm rất lớn Chúng tôi đua, càng ít có khả năng bất cứ ai tìm thấy một thời gian.”
Mức độ nghiêm trọng của cụm từ của anh ấy phù hợp với điệp khúc của các chuyên gia chia sẻ những đặt phòng như vậy về việc phát hành các hệ thống tiên tiến mà không cần kiểm tra quyết định. Cuts Dev, người đã chế tạo một khẩu súng trường Sentry robot chạy bằng nhà thờ , với một số nhân viên nêu lên mối quan tâm về việc công ty đã mở rộng mô hình của nó nhanh như thế nào.
Khởi hành Adler, thêm trọng lượng cho các cuộc hội thoại này. Anh ta có một hàng ghế trước về cách các tính năng và khả năng mới được kiểm tra và anh ta đã tận mắt nhìn thấy những thách thức trong việc đảm bảo các hệ thống AI không tạo ra nội dung có hại hoặc vô tình tiết lộ thông tin cá nhân.
Trong khi ông khen ngợi chuyên môn của các đồng nghiệp, Adler lập luận rằng cần nhấn mạnh hơn vào nghiên cứu liên kết là cần thiết liên quan đến việc ra mắt các sản phẩm mới. Các cuộc gọi cho cuộc cách mạng AI sau dữ liệu: Chỉ có một Internet”
Trong việc giải thích nguyên nhân cơ bản của sự khó chịu của anh ta, Adler đã tuyên bố, hôm nay, có vẻ như chúng ta bị mắc kẹt trong một trạng thái cân bằng thực sự tồi tệ. Nếu một phòng thí nghiệm thực sự muốn phát triển AGI một cách có trách nhiệm, những người khác vẫn có thể cắt các góc để bắt kịp, có thể là thảm họa.
Lo lắng của anh ấy là áp lực cạnh tranh thúc đẩy nghiên cứu AI có thể làm lu mờ các cân nhắc về đạo đức và chính sách sẽ hướng dẫn lý tưởng như thế nào các hệ thống này được xây dựng và triển khai.
Bằng cách chỉ ra một tình huống tập thể, nơi mà không có phòng thí nghiệm nào muốn vượt xa người thừa kế đã làm nổi bật rủi ro của một cuộc chạy đua vũ khí AI toàn cầu mở ra nhanh hơn các cơ quan quản lý hoặc thậm chí chính các nhà nghiên cứu có thể quản lý.
Áp lực cạnh tranh và kêu gọi quy định
Một số nhà quan sát trong ngành chia sẻ quan điểm của Adler rằng cạnh tranh AI toàn cầu có thể vượt qua các chiến lược nhằm ngăn chặn hậu quả không lường trước được.
Deepseek của Trung Quốc, gần đây đã phát hành mô hình lý luận R1 mạnh mẽ và loạt mô hình đa phương thức Janus đánh bại Openai’s O1 và Dall-E 3 với các nguồn lực rất hạn chế, thể hiện cường độ của chủng tộc này và nhấn mạnh cách thức thậm chí còn tốt-Các tổ chức có ý định có nguy cơ bị vượt qua nếu họ tiến hành thận trọng.
Liên quan: Openai thúc đẩy chiến lược AI tập trung vào Hoa Kỳ để chống lại ảnh hưởng của Trung Quốc
Các nhà nghiên cứu kết nối với Viện Tương lai của Cuộc sống cũng làm nổi bật vấn đề nan giải này, trích dẫn Chỉ số an toàn AI 2024 để chỉ ra rằng các nhà phát triển chính, bao gồm Openai và Google DeepMind, thiếu các khung rõ ràng để quản lý các mối đe dọa hiện sinh được đặt ra bởi các mô hình có khả năng cao. Không có bộ quy tắc nào chưa được chấp nhận rộng rãi. Một số chuyên gia ví tình hình hiện tại với những ngày đầu của công nghệ sinh học, khi các chính phủ bước vào với các hướng dẫn về thử nghiệm và phát hành thị trường cuối cùng.
Các nhà lãnh đạo công nghệ như Max Tegmark lập luận Điều đó, giám sát trong suốt có thể khuyến khích các phòng thí nghiệm phối hợp về an toàn Thay vì chạy nước rút về phía một bước đột phá khác mà không chiếm hoàn toàn những cạm bẫy đạo đức. đã bao gồm nghiên cứu về căn chỉnh có chủ ý, một cách tiếp cận được thiết kế để đưa lý luận an toàn vào chính kết cấu của các hệ thống AI. với các hướng dẫn đạo đức và pháp lý rõ ràng. Những người đề xuất kỹ thuật hy vọng nó có thể làm giảm các hành vi không mong muốn, chẳng hạn như tạo ra nội dung hoặc hướng dẫn có hại cho các hoạt động bất hợp pháp, bằng cách có AI chủ động tham chiếu các tiêu chuẩn do con người tạo ra trong thời gian thực.
Tuy nhiên, các nhà phê bình đặt câu hỏi liệu có bất kỳ sửa chữa kỹ thuật nào có thể theo kịp các khả năng AI đang mở rộng nhanh như thế nào hay không và liệu các phòng thí nghiệm có đầu tư đủ tài nguyên tính toán để tinh chỉnh các giải pháp này trước khi đua để triển khai các mô hình mới hay không.
Bản thân Adler vẫn thận trọng quan tâm đến các dự án như vậy, nhưng ông khẳng định rằng nhiều tuyến phòng thủ là cần thiết.
Trong một trong những bài viết cuối cùng của anh ấy trước khi lùi lại một bước, anh ấy đã viết, đối với những gì tiếp theo, tôi đang tận hưởng một chút Ý tưởng quan trọng và bị bỏ quên nhất trong AI An toàn/Chính sách? Tôi rất phấn khích re: phương pháp kiểm soát, phát hiện âm mưu và các trường hợp an toàn; Hãy thoải mái DM nếu điều đó trùng lặp sở thích của bạn.”
Đường dẫn không chắc chắn phía trước
Việc giải thể nhóm siêu phân bổ của Openai một lần được công khai để nghiên cứu cách giữ AI SuperintElgent dưới sự kiểm soát hiệu quả của các cuộc tranh luận về Cách tốt nhất để cấu trúc các sáng kiến an toàn
Trong khi đó, các tuyên bố của người thổi còi về các chính sách nội bộ bị hạn chế, kết hợp với các khởi hành cao hơn nữa, thêm căng thẳng cho câu hỏi liệu Openai và những người đương thời có thể cân bằng tham vọng của họ chống lại sự quản trị chu đáo.
, Bình luận của Adler minh họa cách các nhà nghiên cứu đi đầu trong sự phát triển của AI với các vấn đề nan giải khiến lời hứa công nghệ và lo lắng hiện sinh.
Trong khi một số người, như Meta Lau Yann Lecun, cho rằng AI có thể giải quyết các cuộc khủng hoảng toàn cầu quan trọng, những người khác, người thừa nhận trong số họ, thường xuyên không thoải mái về một tương lai mà các hệ thống này vượt xa sự kiểm soát của con người nếu sự an toàn của chúng không được ưu tiên.
Cho dù điều đó dẫn đến sự đồng thuận mạnh mẽ hơn của ngành công nghiệp đối với AI có trách nhiệm hay buộc các cơ quan chính phủ phải bước vào phần còn lại, và hiện tại, tốc độ nhanh chóng không được kiểm soát.