Openaiは火曜日に、2019年以来の最初のオープンウェイトモデルであるGPT-OSS-120BとGPT-OSS-20Bをリリースしました。この動きは、閉じたシステムに対する批判に直面しているAIラボにとって大きな戦略的変化を示しています。新しいモデルは、許容されるApache 2.0ライセンスの下で利用できます。

これにより、開発者はローカルハードウェアで自由にダウンロード、実行、変更できます。このリリースの目的は、中国の技術会社などのライバルからのオープンモデルの人気の高まりに対抗することを目的としています。オープンソースコミュニティと再関与することにより、Openaiは新しい安全基準を設定したいと考えています。この戦略的ピボットは、2019年のGPT-2以来の最初のオープンウェイト言語モデルのリリースで、長年のコミュニティフィードバックとフラストレーションに直接対処します。

このオープンウェイトの原則への復帰は、4月にCEOのサム・アルトマンによって最初にいじめられました。この発表は、6月と7月の2つのイライラする遅延に続き、今日の発売は、透明性とカスタマイズ可能性を重視する開発者と研究者に、その約束の長年にわたる成就を行います。これらの非アトリビングされた高性能モデルは、公式のGPT-Ossリリースのステルスプレビューであると理解されています。安全。 https://t.co/pdkhqdqcpf

– openai(@openai) 2025年8月5日、2025年8月5日

製品の観点から重要です。 Openaiの研究プログラムマネージャーであるCasey Dvorakが指摘したように、Openaiのポートフォリオの大きなギャップに対処しています。彼は explaened 、「競争力のあるモデルがありません。ボード。”

これにより、データセキュリティ、コストの削減、または専門タスクの微調整のために地元のモデルを好む、または必要とする開発者を競うことができます。製品のギャップを埋めるだけでなく、その動きは影響力を取り戻すことでもあります。プリンストン大学の助教授であるピーター・ヘンダーソン、

アメリカのオープンソースAIの長年のリーダーであるメタが閉じたリリースに向かって再配向している可能性があるため、戦略的重要性が高まっています。 Openaiのピボットは、オープンソースコミュニティの新しいチャンピオンになるように位置付け、強力で許容されるライセンスの代替を探している開発者と研究者を捕らえます。どちらも、計算コストを最小限に抑えながらパフォーマンスを最大化するための重要なデザインの選択である専門家(MOE)アーキテクチャの上に構築されています。たとえば、GPT-OSS-120Bモデルは、トークンあたりの117Bパラメーターのうち5.1Bのみをアクティブにします。この効率は、MXFP4形式へのネイティブ量子化によってさらに強化され、メモリフットプリントを大幅に削減します。

この高度なアーキテクチャにより、モデルにアクセスしやすくなります。小さいGPT-OSS-20Bは、わずか16GBのRAMで消費者デバイスで実行できますが、より大きな120Bモデルでは、プロフェッショナルワークステーションで一般的なハードウェアである1つの80GB GPUのみが必要です。両方のモデルは、 hugging face

でダウンロードできます。公式モデルカードによると、GPT-OSS-120Bは、コア推論ベンチマークでOpenai独自のO4-Miniでほぼ特性を達成し、HealthBenchやAIIME Math Competitionなどの専門的なテストでさらに優れています。小規模のGPT-OSS-20Bは、O3-MINIモデルに対して同様の競争力を示しています。データ、

ただし、Openaiはこれらの結果に重要なコンテキストを追加します。微調整されたモデルはしばしばパックをリードしていますが、この論文は、ほとんどの評価で、「GPT-Ossまたはその近くでスコアリングの別のオープンウェイトモデルがすでに存在する」と結論付けています。これは、GPT-ossがフロンティアを前進させますが、既存のオープンフォースエコシステムに対する劇的で前例のない能力の飛躍を作成しないことを示唆しています。これらは、OpenaiのResponses APIと完全に互換性があり、より多くのツールサポートで5月に強化されました。この統合により、強力な指導とツール使用機能を備えた洗練されたエージェントワークフローが可能になります。 src=”data:image/svg+xml; nitro-empty-id=mty2mjo5mjc=-1; base64、phn2zyb2 awv3qm94psiwidagnjg4iduzny igd2lkdgg9ijy4ocigagvpz2h0psi1mzciihhtbg5zpsjodhrwoi8vd3d3lnczlm9yzy8ymdawl3n2zyi+pc9zdmc+”>

主要な機能には、透明な推論のためのモデルの考え方(COT)への完全なアクセス、構造化された出力のサポート、および単純なシステムプロンプトを介して低、中、高設定の間の推論努力を調整する機能が含まれます。この柔軟性により、開発者は特定のアプリケーションのパフォーマンス、コスト、レイテンシのバランスをとることができます。

このパフォーマンスは、アクセシビリティとディープ機能セットと組み合わさって、複雑なエージェントを構築したり、独自のインフラストラクチャで有能なモデルを実行しようとする開発者にとって強力な新しいオプションになります。

このリリースの礎石は、Openaiの広範な安全研究です。同社は、「悪意のある微調整」(MFT)と呼ばれるプロセスを通じて、最悪のシナリオを積極的に調査しました。研究者は、外部の専門家によってレビューされたプロセスであるモデルを有害にしようとしました。目標は、攻撃者が危険なツールを作成できるかどうかを確認することでした。調査結果、変化するaiランドスケープに対する戦略的応答。メタのラマシリーズは、長い間米国のオープンモデルシーンを支配してきました。最近では、DeepseekとAlibabaの中国モデルは世界的に大きな牽引力を獲得しています。その発表で、同社は「米国で作成されたこれらの有能なオープンウェイトモデルへの幅広いアクセスが、民主的なAIレールの拡大に役立つ」と述べた。この感情はアナリストによって反響されています。プリンストン大学のピーター・ヘンダーソンは、「オープンモデルはソフトパワーの一種である」と指摘し、AI開発における米国の影響力を維持するためのより広範な戦略を示唆しています。 href=”https://www.technologyreview.com/2025/08/05/1121092/openai-has-finally-release-release-weight-language-models/”target=”_ blank”> 1つのレポートによるとによると。このリリースは、国内のオープンソースエコシステムを育成することに会社を整合させます。

寛容なApache 2.0ライセンスは、この戦略の重要な部分です。 AIのアレン研究所のネイサン・ランバートは、この選択を称賛し、「オープンコミュニティにとって非常に良いことだ」と述べた。これは、一部の競合他社が使用するより制限的なカスタムライセンスとは対照的であり、より広範な採用を促進します。

モデルは hugging で利用可能です。それらは世界中の開発者がすぐにアクセスできる

です

Categories: IT Info