IBMは、新しい花崗岩4.0 AIモデルを開始し、ビジネスの効率を大幅に高めることができます。

今週リリースされたオープンソースファミリーは、新しいハイブリッドデザインを使用し、 mamba-2 and トランスフォーマーアーキテクチャ。このアプローチは、メモリのニーズを70%以上削減し、複雑なタスクのハードウェアコストを削減します。

モデルは、信頼と高性能に焦点を当てたエンタープライズの使用のために構築されています。それらは現在 ibmのwatsonx.ai hugging face 、およびその他src=”data:image/svg+xml; nitro-empty-id=mty0otoxmjg1-1; base64、phn2zyb2awv3qm94psiwidagmti4mca3mj aiihdpzhropsixmjgwiibozwlnahq9ijcymcigeg1sbnm9imh0dha6ly93d3cudzmub3jnlziwmdavc3znij48l3n2zz4=”>

Granite 4.0は、IBMがグローバル市場に強力で手頃なAIツールを提供し、重要な競合他社として位置づけるための動きを示しています。候補。ダブル。これにより、それらを実行するのに費用がかかります。

IBMの新しいモデルは、2つの異なるアーキテクチャをブレンドすることでこの問題を避けます。彼らは非常に効率的なMamba-2レイヤーと、9:1のマンバの伝統的な変圧器ブロックの少数の伝統的なトランスブロックと組み合わせます。状態空間モデルは、情報を直線的に処理し、長いドキュメントにはるかに適した。マンバの速度とメモリ効率を活用している間にトランスが知られているコンテキスト精度を維持します。

href=”https://www.aiml.com/ibm-launches-granite-4-0-hybrid-ai-models-with-lower-memory-and-hardware-costs/”target=”_ blank”>多くの組織のエントリへの障壁を下げる。研究者は、Googleの投機的なカスケードからDFLoAT11のようなロスレス圧縮技術まで、さまざまな方法を探求しています。 IBMの建築革新は、この分野の主要なエントリです。

エンタープライズワークロードのパフォーマンスと実用性

IBMの焦点は、エンタープライズグレードのパフォーマンスと実用性に正常です。同社は、特に長いコンテキストまたは多くの同時ユーザーを備えたワークロードの場合、推論中に新しいアーキテクチャがGPUメモリ要件を70%以上削減できると主張しています。これは、より低い運用コストに直接変換されます。

花崗岩4.0ファミリには、さまざまなニーズに合わせていくつかのサイズが含まれています。ラインナップには、2つの混合物(MOE)モデル、Hスマール(〜9Bアクティブパラメーター)とH-TINY(〜1Bアクティブ)、密な3Bハイブリッドモデルと並んで、

純粋な3B変圧器も、ハイブリッド設計をサポートしていないプラットフォームにも提供されます。 Granite-4.0-H-Smallモデルは、IBMのデータに従って、指導に従ったタスク(ifeval)に優れており、関数呼び出し(BFCLV3)で非常に競争力があります。 src=”data:image/svg+xml; nitro-empty-id=mty1nzoxndk1-1; base64、phn2zyb2awv3qm94psiwidagmti4mca2ndai ihdpzhropsixmjgwiibozwlnahq9ijy0mcigeg1sbnm9imh0dha6ly93d3cudzmub3jnlziwmdavc3znij48l3n2zz4=”>

これは、ビジネス設定で一般的な複雑でエージェントのワークフローに対する準備ができることを示しています。

要求の厳しいエンタープライズデータを処理するために、モデルは22兆兆個の大規模なコーパスでトレーニングされました。また、最大512kのトークンのサンプルシーケンスでトレーニングされ、非常に長いコンテキストウィンドウを必要とするタスクでの堅牢なパフォーマンスを確保しました。 Granite 4.0は許容Apache 2.0ライセンスの下でリリースされ、幅広い採用と修正を促進します。 href=”https://www.iso.org/standard/88934.html”target=”_ blank”> ISO/IEC 42001:2023認定。業界。同社は、2025年後半に推論に焦点を当てた「思考」バリアントで家族を拡大する予定です。

Categories: IT Info