OpenAI xuất hiện chuẩn bị giới thiệu một rào cản mới đáng kể cho các nhà phát triển muốn truy cập vào các mô hình AI tương lai mạnh nhất của mình thông qua API: một yêu cầu tiềm năng đối với các tổ chức phải trải qua xác minh danh tính bằng ID do chính phủ phát hành. Target=”_ Blank”> Trang hỗ trợ OpenAI Tuần trước mô tả quy trình tổ chức đã được xác minh”, được đóng khung bởi công ty như một bước cần thiết để chống lạm dụng và thúc đẩy triển khai AI có trách nhiệm. OpenAI cho thấy điều này nhắm mục tiêu một thiểu số nhỏ”cố tình vi phạm các chính sách sử dụng của nó, nhằm mục đích giảm thiểu việc sử dụng AI không an toàn trong khi tiếp tục cung cấp các mô hình nâng cao cho cộng đồng nhà phát triển rộng hơn.”Các câu hỏi về các tiêu chí cụ thể. Trung tâm lo ngại về ma sát hoạt động bổ sung, các cân nhắc về quyền riêng tư của việc gửi nhận dạng chính phủ, loại trừ tiềm năng của người dùng ở các khu vực bên ngoài căng thẳng nội bộ và bối cảnh công nghiệp

ma sát rõ ràng này giữa vận tốc phát triển và thận trọng an toàn là lãnh thổ mới cho Openai. Những bất đồng nội bộ đã được nhấn mạnh bởi sự ra đi tháng 5 năm 2024 của Jan Leike, sau đó đồng lãnh đạo của nhóm siêu phân chia tập trung vào rủi ro dài hạn, người đã công khai tuyên bố rằng văn hóa an toàn và quy trình đã đưa ra một hoạt động hỗ trợ cho các nhân viên của công ty. Tóm tắt lập luận rằng Openai, sự thay đổi đối với cấu trúc lợi nhuận giới hạn lệch khỏi nhiệm vụ phi lợi nhuận sáng lập của mình, có khả năng ảnh hưởng đến các cam kết an toàn và phân bổ nguồn lực. Cấu trúc an toàn AGI. Điều này xảy ra trong bối cảnh quy định non trẻ như Đạo luật AI của EU, những khám phá liên tục về các lỗ hổng mô hình và kỹ thuật bẻ khóa, và Openai tựa