Openai và Amazon Web Services (AWS) đã hình thành một quan hệ đối tác mới lớn. Vào thứ ba, các công ty đã thông báo rằng lần đầu tiên các mẫu xe mở `gpt-oss` mới có sẵn trên đám mây AWS. Các nhà phát triển hiện có thể truy cập các mô hình thông qua Amazon Bedrock và Sagemaker.
Động thái này đánh dấu một sự thay đổi lớn cho cả hai công ty. Openai nhằm mục đích giành lại cộng đồng nguồn mở và cạnh tranh với các đối thủ như Meta. Đối với AWS, đó là một chiến thắng quan trọng giúp bổ sung các mô hình AI hàng đầu vào nền tảng của mình, giúp nó thu hẹp khoảng cách với đối thủ cạnh tranh chính của nó, Microsoft, trong không gian AI tổng quát. Lần đầu tiên, các mô hình mạnh mẽ của Openai, có sẵn trên AWS, nhà cung cấp đám mây lớn nhất thế giới. Điều này cung cấp cho hàng triệu khách hàng AWS truy cập trực tiếp vào công nghệ mới nhất của Openai thông qua các dịch vụ như Amazon Bedrock và Sagemaker. cho AWS. Công ty
Sự hợp tác này trực tiếp giải quyết những lo ngại đó. Nó cho phép AWS cung cấp cho cơ sở khách hàng khổng lồ của mình một sự thay thế hàng đầu cho các mô hình từ Anthropic, Meta và những người khác. Atul Deo, giám đốc sản phẩm của AWS, đóng khung nó như một bước tự nhiên, nêu rõ, Việc bổ sung Openai là nhà cung cấp mô hình trọng lượng mở mới nhất của chúng tôi đánh dấu sự tiến triển tự nhiên trong cam kết của chúng tôi để đưa AI tiên tiến cho các tổ chức trên toàn thế giới.”Bằng cách hợp tác với nhà cung cấp đám mây lớn nhất, Openai đa dạng hóa sự phụ thuộc của nó vào Azure và tăng cường vị trí đàm phán của nó, tất cả trong khi mở rộng phạm vi của nó. Đây là các bản phát hành trọng lượng mở đầu tiên của Openai, kể từ GPT-2 vào năm 2019, có sẵn theo giấy phép Apache 2.0 cho phép. Chúng được xây dựng trên một kiến trúc hỗn hợp (MOE) hiệu quả. Ví dụ, mô hình `gpt-oss-120b` kích hoạt chỉ 5,1b của các tham số 117B trên mỗi mã thông báo, làm cho nó hiệu quả cao. Thiết kế này giúp chúng có thể truy cập đáng ngạc nhiên. Mô hình tham số 20 tỷ nhỏ hơn có thể chạy trên các thiết bị tiêu dùng chỉ với 16GB RAM. Phiên bản 120B lớn hơn chỉ yêu cầu một GPU 80GB duy nhất, phổ biến trong các máy trạm chuyên nghiệp. Cả hai đều là Có sẵn trên khuôn mặt ôm . Openai tuyên bố các mô hình `gpt-oss` đã được đào tạo trên mẫu này và sẽ không hoạt động chính xác nếu không có nó. Cấu trúc Harmony đầu ra mô hình vào các kênh riêng biệt để `Phân tích`,` Bình luận’và `Câu trả lời cuối cùng. Để hợp lý hóa việc áp dụng, Openai cũng đã ra mắt một quan chức `thư viện Openai-Harmony` cho Python và Rust . Trục chiến lược cho Openai. Công ty, thường được mệnh danh là Đóng kín,”trực tiếp giải quyết nhiều năm chỉ trích bằng cách tham gia lại với cộng đồng nguồn mở. Sự ra mắt đã thực hiện một lời hứa đầu tiên được CEO Sam Altman trêu chọc vào tháng Tư sau khi sự chậm trễ bực bội. Là Meta, một nhà lãnh đạo lâu năm trong AI nguồn mở, báo hiệu sự thay đổi tiềm năng khỏi nguồn cung cấp mở các mô hình tiên tiến nhất của nó, Openai đang bước vào để lấp đầy khoảng trống. Vị trí này Openai trở thành nhà vô địch mới cho các nhà phát triển thích các mô hình mở, có thể tùy chỉnh. Tình cảm này được lặp lại trong việc đóng khung của chính Openai. Công ty rõ ràng sử dụng động thái về mặt địa chính trị, nói rằng quyền truy cập rộng rãi vào các mô hình trọng lượng mở có khả năng này được tạo ra ở Mỹ giúp mở rộng các đường ray AI Dân chủ.”Openai đã tranh thủ một loạt các đối tác để đảm bảo href=”https://developer.nvidia.com/blog/delivering-1-5-m-gps-inference-on-nvidia-gb200-nvl72-nvidia-accelerates-openai-gpt-oss Phần cứng . Cách tiếp cận hệ sinh thái này nhấn mạnh tham vọng của Openai. Bằng cách làm cho các mô hình của nó mạnh mẽ, có thể truy cập và được hỗ trợ rộng rãi, nó đang tạo ra một trường hợp hấp dẫn cho hệ sinh thái của nó. Nỗ lực phối hợp này, từ đám mây sang cạnh, nhằm mục đích thiết lập `gpt-oss` và định dạng hài hòa như một tiêu chuẩn mới cho thế hệ phát triển AI tiếp theo.