AMDは火曜日に、最新のハードウェアがOpenaiの新しい「GPT-OSS」モデルをサポートしていることを発表しました。サポートは、Ryzen AIチップスやRadeonグラフィックスカードのような最新の消費者製品のものです。最初にキーでは、AMDは、Ryzen AI Max+ 395チップがローカルPCで1,200億個の巨大なパラメーターモデルを実行できると言います。この変更により、より速く、よりプライベート、およびオフラインのAIアプリが可能になります。開発者はLM Studioツールを使用してモデルを今日実行し、強力なAIにアクセスしやすくします。 href=”https://www.amd.com/en/blogs/2025/how-to-run-openai-gpt-oss-20b-20b-models-on-amd-ryzen-ai-radeon.html”ターゲット=”_ blank>>消費者のハードウェア

これは重要なマイルストーンです。データセンタークラスのAIワークロードをクラウドからデスクトップまたはラップトップにシフトします。 AMDによると、システムは1秒あたり最大30トークンの非常に使用可能なパフォーマンスを実現し、複雑なローカルAIを開発者と研究者にとって実際的な現実にします。 `gpt-oss-120b`モデルには、約61GBのVRAMが必要です。これは、専門化されたRyzen AI Max+ 395プラットフォームで利用可能な96GBの専用グラフィックメモリ内に適合します。ターゲット=”_ blank”> amdは最近強調表示されました。

小さいがまだ強力な `gpt-oss-20b`モデルで作業している場合、AMDはRadeon 9070 XT 16GBグラフィックスカードを指します。同社は優れた時間からトークンまでの優れた時間(TTFT)を強調しており、クイック初期出力に依存するエージェントワークフローの応答性のあるパフォーマンスを保証します。それらは、Openaiの戦略的ピボットを表しています。

モデルは、効率的な混合物(MOE)アーキテクチャの上に構築されています。この設計は、特定のタスクの合計パラメーターのほんの一部のみをアクティブにし、計算コストを大幅に削減し、デバイス上の実行に実行可能にします。このテンプレートは、モデルの出力を推論、ツールの使用、最終回答のために別々のチャネルに構成し、開発者により透明な制御を可能にします。 href=”https://rocm.blogs.amd.com/developer-guides/2025/08/05/day-0-developer-guide-running-the-the-the-open-models-from-openai-on-amd-ai-hardware.html”ターゲット=”主要なツールはLM Studioです。これは、LLMSのダウンロードと実行を簡素化する無料アプリケーションです。ユーザーはまた、最新の amdソフトウェア:アドレナリン版ドライバー(バージョン25.8.1以上)をインストールする必要があります。すべての計算層をGPUにオフロードし、モデルをメモリにロードします。 120Bモデルはそのサイズのためにロードに時間がかかる場合がありますが、結果は完全にローカルで実行される強力な推論エンジンです。これは、「gpt-oss」とハーモニーを新しい基準として確立するために設計された慎重に編成された業界全体のイベントの重要な部分でした。 Microsoftは、Windows Ai Foundry and Foundryのローカルプラットフォームを発表して、WindowsとMacosでモデルを実行しました。 Qualcommはまた、Snapdragonを搭載したPCのオンデバイスサポートを可能にしました。アナリストは、「部分的に、これは研究エコシステムにおけるOpenaiの支配を再確認することです」と示唆しています。この感情は、Openai自身のリリースのフレーミングに反映されており、同社は「米国で作成されたこれらの有能なオープンウェイトモデルへの幅広いアクセスが民主的なAIレールの拡大に役立つ」と述べています。強力でアクセスしやすく、広くサポートされているモデルを提供することにより、同社はそのエコシステムの説得力のあるケースを作成しています。 MicrosoftのAsha Sharmaが指摘したように、「初めて、単一のEnterprise GPUでGPT ‑ OSS ‑ 1120BなどのOpenAIモデルを実行するか、GPT ‑ Oss-20Bをローカルに実行できます。」新しいハイブリッドAIリアリティを強調します

Categories: IT Info