OpenaiおよびAmazon Web Services(AWS)は、主要な新しいパートナーシップを形成しました。火曜日、企業は、Openaiの新しい「GPT-OSS」オープンウェイトモデルがAWSクラウドで初めて利用可能になることを発表しました。開発者は、Amazon BedrockとSagemakerを介してモデルにアクセスできるようになりました。
この動きは、両方の企業にとって大きな変化を示しています。 Openaiは、オープンソースコミュニティを取り戻し、Metaのようなライバルと競うことを目指しています。 AWSにとって、これは最高のAIモデルをプラットフォームに追加する重要な勝利であり、メインの競合他社であるMicrosoftが生成AIスペースでギャップを埋めるのに役立ちます。 OpenAIの強力なモデルは、世界最大のクラウドプロバイダーであるAWSで初めて利用できます。これにより、AWSの顧客は、Amazon BedrockやSagemakerなどのサービスを通じてOpenaiの最新テクノロジーに直接アクセスできます。 AWSの戦略的勝利。会社 AmazonのCEOであるAndy Jassyは最近、彼の会社の地位を擁護し、「2番目のプレーヤーはAWSの規模の約65%だと思います。」
このパートナーシップはこれらの懸念に直接対処しています。 AWSは、人類、メタ、その他のモデルに代わる大規模な顧客ベースを提供することができます。 AWSの製品ディレクターであるAtul Deoは、それを自然なステップとして組み立て、「Openaiを最新のオープンウェイトモデルプロバイダーとして追加することは、世界中の組織に最先端のAIをもたらすというコミットメントにおける自然な進歩を示しています。」最大のクラウドプロバイダーと提携することにより、OpenaiはAzureへの依存を多様化し、そのリーチを拡大しながら交渉の立場を強化します。これらは、2019年のGPT-2以来のOpenaiの最初のオープンウェイトリリースであり、許容型Apache 2.0ライセンスの下で入手可能です。これらは、効率的な混合物(MOE)アーキテクチャの上に構築されています。
このMOEデザインとは、モデルのパラメーターのほんの一部のみが特定のタスクに対してアクティブであり、コストを最小限に抑えながらパフォーマンスを最大化することを意味します。たとえば、 `gpt-oss-120b`モデルは、トークンあたりの117bパラメーターのうち5.1bのみをアクティブにし、非常に効率的になります。
このデザインにより、驚くほどアクセスしやすくなります。わずか16GBのRAMを備えた消費者デバイスでは、2,000億個のパラメーターモデルが少ないことがあります。大型の120Bバージョンでは、プロのワークステーションで一般的な80GB GPUのみが必要です。どちらも hugging 。 Openaiは、「GPT-OSS」モデルはこのテンプレートでトレーニングされており、それなしでは正しく機能しないと述べています。ハーモニー構造は、「分析」、「解説」、および「最終的な回答」の個別のチャネルにモデル化されています。
これにより、開発者はモデルの出力を粒状制御し、ユーザーフェイスの応答を乱すことなく「思考プロセス」を検査できるようになります。採用を合理化するために、Openaiは公式 `python and rust for python 。 Openaiの戦略的ピボット。しばしば「クローズド」と呼ばれる同社は、オープンソースコミュニティと再関与することにより、長年の批判に直接対処しています。ローンチは、遅延をイライラさせた後、4月にCEOのサム・アルトマンが最初にからかった約束を果たします。
このリリースは、8月上旬にモデルプラットフォームに登場した「地平線」モデルを取り巻く謎を明確にします。オープンソースAIの長年のリーダーであるメタは、オープンソーシングの最も先進的なモデルから離れる潜在的なシフトを示しているため、Openaiはボイドを埋めるために介入しています。これにより、Openaiはオープンでカスタマイズ可能なモデルを好む開発者の新しいチャンピオンになります。
プリンストンの助教授であるPeter Hendersonは、「これは、これは研究生態系におけるOpenaiの支配を再確認することです」と示唆しています。この感情は、Openai自身のリリースのフレーミングに反映されています。同社は、地政学的な用語でこの動きを明示的にキャストし、「米国で作成されたこれらの有能なオープンウェイトモデルへの広範なアクセスが民主的なAIレールの拡大に役立つと述べています。」 Openaiは、新しいモデルの採用 。 href=”https://developer.nvidia.com/blog/delivering-1-5-m-tps-invering-on-nvidia-gb200-nvl72-nvidia-openai-gpt-oss-models-from-cloud-to-edge/”ハードウェア。
この生態系アプローチは、Openaiの野望を強調しています。モデルを強力でアクセスしやすく、広くサポートすることにより、そのエコシステムの説得力のあるケースを作成しています。クラウドからエッジまでのこの調整された努力は、「GPT-oss」とハーモニー形式を次世代のAI開発の新しい基準として確立することを目指しています。