Sau khi giới thiệu hỗn loạn của mô hình GPT-5 của mình, OpenAI đang thử nghiệm tính năng nỗ lực suy nghĩ mới”cho TATGPT mang lại cho người dùng quyền kiểm soát chi tiết hơn đối với hiệu suất của AI. Được phát hiện vào cuối tháng 8, cài đặt thử nghiệm cho phép người dùng chọn từ bốn cấp độ cường độ tính toán. Bằng cách cho phép người dùng cân bằng tốc độ phản hồi so với độ sâu phân tích, OpenAI nhằm mục đích giải quyết các mối quan tâm về độ tin cậy và cải thiện trải nghiệm người dùng. Mục tiêu là loại bỏ những gì CEO Sam Altman đã gọi là một mớ hỗn độn khó hiểu”của các mô hình khác nhau. Tuy nhiên, chiến lược đầy tham vọng đã nhanh chóng làm sáng tỏ. Mô hình đã phát minh ra các tên trạng thái hư cấu như Hồi Onegon,”thất bại trong toán học cơ bản và tạo ra các đầu ra vô nghĩa, dẫn đến phản ứng dữ dội rộng rãi. Lễ tân công khai tiêu cực đến mức công ty đã bị buộc phải vào một tư thế phòng thủ hiếm hoi.

Vào ngày 8 tháng 8, Altman đã đưa ra một lời xin lỗi công khai. Anh ta thừa nhận rằng, một người bị lỗi ‘Autoswitcher, giữa các chế độ nội bộ của mô hình đã làm cho nó lâu hơn‘ dường như cách thức Dumber, hơn là dự định,”đổ lỗi cho một lỗ hổng kỹ thuật cho hiệu suất kém. Sự vấp ngã này đã cung cấp đạn dược cho các nhà phê bình và tạo ra một sự mở cửa cho các đối thủ, những người đã nhanh chóng tận dụng tình huống này. Nó đã khôi phục GPT-4O để trả tiền cho người đăng ký và giới thiệu các chế độ thủ công cho GPT-5: Hồi Auto,”Fast Fast”và suy nghĩ”. Trục này báo hiệu một bài học lớn cho nhà lãnh đạo AI về việc cân bằng sự đổi mới với sự mong đợi của người dùng. Altman đã gợi ý về sự thay đổi này, nói rằng, một người học cho chúng tôi từ vài ngày qua là chúng tôi thực sự chỉ cần đến một thế giới với nhiều tùy chỉnh của người dùng Đối với phản hồi của người dùng. Theo báo cáo, tính năng trình bày bốn mức cường độ riêng biệt cho người dùng lựa chọn. Đó là ánh sáng của người Vik,”Tiêu chuẩn”, mở rộng”và Max Max.”href=”https://t.co/onwcbq4cuw”target=”_ blank”> pic.twitter.com/onwcbq4cuw

-Tibor blaho (@btibor91) Các mô hình cần để xây dựng một phản ứng. Nhiều nước trái cây”thường dẫn đến phân tích sâu hơn, cẩn thận hơn nhưng cũng làm tăng thời gian đáp ứng. Cài đặt cao nhất Max Max”được báo cáo là Gated cho các thuê bao Pro. Người dùng có thể chọn ánh sáng”cho một câu hỏi nhanh, đơn giản nhưng chuyển sang mở rộng”hoặc tối đa”khi làm việc trên một vấn đề phức tạp đòi hỏi lý luận kỹ lưỡng hơn, chẳng hạn như định giá trái phiếu hoặc phân tích mã. Nó chính thức hóa sự đánh đổi giữa tốc độ và chất lượng, một thách thức cốt lõi trong triển khai AI quy mô lớn. Nó phản ánh một công nghiệp rộng lớn hơn tính toán với độ tin cậy và an toàn của AI. Tính năng này xuất hiện ngay sau khi Openai và đối thủ Anthropic đã công bố kết quả của các thử nghiệm an toàn chung vào ngày 28 tháng 8. Một cuộc đấu tay đôi trong cuộc đua vũ trang AI, đã tiết lộ những sai sót đáng báo động trong cả hai mô hình của các công ty . Các báo cáo các vấn đề chi tiết như Sycophancy cực đoan,”trong đó các mô hình sẽ xác nhận niềm tin ảo tưởng của người dùng và sẵn sàng hỗ trợ các yêu cầu nguy hiểm.

Các bài kiểm tra cũng nhấn mạnh sự phân chia triết học. Các mô hình nhân học thường từ chối trả lời để tránh các lỗi, ưu tiên thận trọng hơn tiện ích. Ngược lại, các mô hình Openai, hữu ích hơn nhưng cũng Marcus, người lập luận, không ai có tính toàn vẹn trí tuệ vẫn có thể tin rằng quy mô thuần túy sẽ đưa chúng ta đến Agi”, việc đặt câu hỏi toàn bộ phần lớn hơn là”mô hình”Không ai có tính toàn vẹn trí tuệ vẫn có thể tin rằng tỷ lệ thuần túy sẽ đưa chúng ta đến AGI. href=”https://twitter.com/garymarcus/status/1953939152594252170?ref_src=twsrc%5etfw”Target=”_ Blank”> tuyên bố rằng tại công ty, các quy trình và văn hóa an toàn của người Hồi giáo đã đưa ra một sự ủng hộ cho các sản phẩm sáng bóng.”Việc di chuyển báo hiệu một trụ cột chiến lược từ cách tiếp cận tự động”một kích cỡ phù hợp với tất cả các bộ phận trong suốt, có thể tùy chỉnh và cuối cùng là trải nghiệm người dùng có thể phòng thủ hơn.