Metaは、最新のLlama 4 AIモデルを複数のチャネルを通じてプッシュし、Amazon Web Servicesなどのパートナーと新しくプレビューした開発者APIを介したマネージドサービスの両方としてテクノロジーを利用できるようにします。この可用性は、基礎となるインフラストラクチャを管理せずにすぐに使用できるオプションを開発者に提供しますが、最初にAmazon Bedrock Consoleを介してアクセスを要求する必要があります。 src=”https://winbuzzer.com/wp-content/uploads/2025/04/meta-llama-4 official.jpg”>

llama 4 on bedrock:bedrock ai

4月6日にメタによって詳細なモデルは、エクスペル(MOE)アーキテクチャの混合物(効率のために必要なニューラルネットワークパーツのみをアクティブにする)を特徴としています。スカウトには16人の専門家(17Bアクティブ/109B合計パラメーター)があり、128人の専門家(17Bアクティブ/400B合計マルチメーターを介した在住のマルチマルチ型を介した在来のマルチマーキャップを介して、在来のマルチマルチを介してnavericがあります。岩盤の

から、開発者は、テキストや画像などの入力を処理し、ストリーミング出力をサポートするさまざまなベッドロックモデルの一貫したインターフェイスである統合された岩盤コンバースAPIを使用して、これらの機能を利用できます。 AWSは、ブログ投稿に詳述されているPythonの例を含むSDKサポートを提供して統合を促進します。現在、Bedrockはかなりのコンテキストウィンドウをサポートしています。スカウト用の350万トークン、Maverickで100万トークンで、広範な入力を可能にします。岩盤のLlama 4の特定の価格はAWS Webサイトで入手できます。このデュアルアプローチはさまざまなニーズに応え、岩盤はマネージドインフラストラクチャを望んでいる人や、カスタマイズの優先順位付けに優先されるユーザーにラマAPIを提供する人に魅力的です。

各プラットフォームで発表された機能を比較することに基づいて、微調整と評価ツールがラマAPIの直接環境で強調表示されていることです。 Llama 4を微調整するには、現在、メタのAPIを使用して、セレブラスとGROQを使用して実験的なサービングオプションを活用するか、モデルを自己ホストする必要があります。 4月中旬からの報告は、メタが以前にAWSとマイクロソフトからのラマトレーニングのために共同資金を求めていたことを示しており、潜在的に機能の影響を受けている可能性があります。同社は、幅広いインターネットデータで訓練されたモデルでよく見られる政治的偏見に対処するためにLlama 4を調整する努力について公に議論しました。

このAIチューニングは、2025年1月にメタの米国のサードパーティの事実チェックプログラムを終了するなど、プラットフォームポリシーの変更とともに発生しました。当時、メタのグローバルポリシーチーフジョエルカプランは、節度の複雑さを引用し、内部レビューは「これらのアクションのうち10個のうち10個が誤っている可能性がある」と述べました。 Bittorrent経由のLibgenなどのソースから得られた本の大規模なデータセットの使用。 

開発者アクセスを超えて(Sagemaker Jumpstartと