Meta treibt seine neuesten LLAMA 4-KI-Modelle über mehrere Kanäle aus und macht die Technologie sowohl als verwaltete Dienst über Partner wie Amazon Web Services als auch über eine eigene neu previewed Developer-API zur Verfügung. Diese Verfügbarkeit bietet Entwicklern eine Option, ohne die zugrunde liegende Infrastruktur zu verwalten, obwohl der Zugriff zunächst über die Amazon-Grundgestein-Konsole angefordert werden muss. src=”https://winbuzzer.com/wp-content/uploads/2025/04/meta-llama-4-official.jpg”>

llama 4 beim Bedrock: Managed Multimodal Ai

Infitierende. Detailliert von Meta am 6. April. Diese Modelle verfügen über eine Architektur der Experten (Experten)-aktivieren nur die erforderlichen neuronalen Netzwerke pro Aufgabe für Effizienz-mit Scout mit 16 Experten (17B Active/109B Gesamtparameter) und Maverick mit 128 Experten (17B Active/400B Gesamtparameter). Vorabstufe.

Auf dem Grundgestein können Entwickler diese Merkmale mit der Unified Grundgestein-Converse-API verwenden, eine konsistente Schnittstelle über verschiedene Grundgesteinsmodelle, die Eingänge wie Text und Bilder behandeln und die Streaming-Ausgabe unterstützen. AWS bietet SDK-Unterstützung, einschließlich Python-Beispiele, die in ihrem Blog-Beitrag aufgeführt sind, um die Integration zu erleichtern. Bedrock unterstützt derzeit erhebliche Kontextfenster: 3,5 Millionen Token für Scout und 1 Million für Maverick, was umfangreiche Inputs ermöglicht. Auf der AWS-Website sind spezifische Preise für Lama 4 auf dem Grundgestein erhältlich. Dieser doppelte Ansatz erfüllt unterschiedliche Bedürfnisse, wobei das Grundgestein diejenigen, die verwaltete Infrastruktur wünschen, und die Lama-API-Catering für Benutzer an die Anpassung priorisieren. Die Feinabstimmung von LLAMA 4 müsste derzeit die API von Meta verwenden, potenziell experimentelle Servieroptionen mit Cerebras und GREI nutzen oder die Modelle selbst veranstaltet. Berichte von Mitte April zeigten, dass Meta zuvor von AWS und Microsoft für das Lama-Training mit Finanzierung gesucht hatte, was möglicherweise einen Einfluss von Funktionen im Gegenzug bietet. Das Unternehmen diskutierte öffentlich die Bemühungen, LLAMA 4 zu stimmen, um wahrgenommene politische Vorurteile zu beheben, die in Modellen, die in breiten Internetdaten ausgebildet wurden, in seiner offiziellen Ankündigung von LLAMA 4 zu finden.

Diese KI-Abstimmung ereignete sich neben den Änderungen der Plattformpolitik, wie beispielsweise die Beendigung des US-amerikanischen Faktenprüfprogramms von Meta im Januar 2025. Zu dieser Zeit zeigte der globale Politikchef von Meta, Joel Kaplan, die Komplexität der Moderation und stellte fest, dass interne Bewertungen „Eins bis zwei von 10 dieser Aktionen. Verwendung großer Datensätze von Büchern, die aus Quellen wie Libgen über BitTorrent erhalten wurden. 

Beyond Developer Access (zu dem auch Sagemaker Jumpstart und