Động lực cạnh tranh trong lĩnh vực trí tuệ nhân tạo hiện có vẻ ảnh hưởng trực tiếp đến việc phát triển chính sách an toàn tại Openai. Công ty đằng sau Chatgpt chỉ Cập nhật các hướng dẫn an toàn nội bộ của nó Bản sửa đổi này đối với khung chuẩn bị của nó bề mặt với tư cách là công ty, hiện có giá trị 300 tỷ đô la sau vòng đầu tư do SoftBank lớn, điều hướng cạnh tranh thị trường mạnh mẽ và sự giám sát ngày càng tăng đối với các quy trình đánh giá của nó đối với các mô hình AI nâng cao, chẳng hạn như điều kiện Thiết lập các loại được theo dõi cụ thể, để theo dõi các rủi ro đã biết như lạm dụng trong sinh học, hóa học và an ninh mạng, bên cạnh các loại nghiên cứu hướng tới tương lai (SAG). Tuy nhiên, thay đổi thu hút sự chú ý nhất là điều khoản trực tiếp giải quyết môi trường cạnh tranh. Thông báo của OpenAI, có nội dung: Từ Nếu một nhà phát triển AI Frontier khác phát hành một hệ thống rủi ro cao mà không có các biện pháp bảo vệ tương đương, chúng tôi có thể điều chỉnh các yêu cầu của chúng tôi.”Công ty chi tiết rằng trước khi thực hiện một sự điều chỉnh như vậy: Tuy nhiên, trước tiên chúng tôi sẽ xác nhận nghiêm ngặt rằng bối cảnh rủi ro đã thực sự thay đổi, công khai thừa nhận rằng chúng tôi đang điều chỉnh, đánh giá rằng việc điều chỉnh không có ý nghĩa làm tăng nguy cơ gây hại nghiêm trọng và vẫn giữ các biện pháp bảo vệ ở mức bảo vệ nhiều hơn.”Khung sửa đổi cũng chỉ ra sự phụ thuộc tăng lên vào các kỹ thuật đánh giá tự động, bổ sung cho các đánh giá của chuyên gia, để quản lý tốc độ phát triển mô hình tăng tốc. Nó đến chỉ vài ngày sau khi các báo cáo xuất hiện, cho rằng Openai đã nén đáng kể thời gian được phân bổ để thử nghiệm an toàn trên các mô hình sắp tới như O3. Nhiều nguồn quen thuộc với các hoạt động tuyên bố thời gian đánh giá đã giảm từ vài tháng xuống dưới một tuần, được thúc đẩy bởi sự cần thiết phải theo kịp các đối thủ như Google, Meta và XAI. Một nguồn làm việc về đánh giá O3 nói với FT rằng cách tiếp cận cảm thấy liều lĩnh,”Xây dựng, nhưng vì có nhiều nhu cầu hơn về nó, họ muốn nó ra nhanh hơn. Tôi hy vọng nó không phải là một bước sai lầm, nhưng nó là một công thức cho thảm họa.”Một người khác đã tham gia vào đánh giá sáu tháng dài hơn cho GPT-4 vào năm 2023 được báo cáo, họ hoàn toàn không ưu tiên an toàn công cộng.”
Các phương pháp thử nghiệm cụ thể cũng bị hỏa hoạn. Mối quan tâm đã được nêu ra liên quan đến mức độ đánh giá tinh chỉnh-một kỹ thuật được sử dụng để thăm dò các khả năng mới nổi nguy hiểm của các mô hình đào tạo trên dữ liệu chuyên ngành (như virus học). Các nhà phê bình, bao gồm cựu nhà nghiên cứu an toàn Openai Steven Adler, đã chỉ ra việc thiếu kết quả tinh chỉnh được công bố cho các mô hình mới nhất, có khả năng nhất của công ty như O1 hoặc O3-Mini. Việc thực hành đánh giá các phiên bản mô hình trung gian, hoặc các điểm kiểm tra,”thay vì mã cuối cùng được phát hành cũng bị nghi ngờ. Đây là một thực tế tồi tệ khi phát hành một mô hình khác với mô hình bạn đã đánh giá”, một nhân viên kỹ thuật cũ của Openai đã nhận xét với FT. Bảo vệ quy trình của công ty, người đứng đầu hệ thống an toàn của Openai, Johannes Heidecke, được khẳng định với ấn phẩm, chúng tôi có sự cân bằng tốt về mức độ chúng tôi di chuyển và chúng tôi kỹ lưỡng như thế nào”Bối cảnh cho các cuộc thảo luận chính sách an toàn này bao gồm đường ống sản phẩm phát triển của riêng Openai. Vào ngày 4 tháng 4 năm 2025, CEO Sam Altman