Meta nimmt einen formellen Einstieg in den AI-Plattform-Dienstleistungsmarkt ein und kündigt heute eine begrenzte Vorschau auf die LLAMA-API für Entwickler auf der ersten Lamacon-Konferenz des Unternehmens an. Diese Initiative gewährt den Entwicklern den programmatischen Zugang zu Metas LLAMA-Serie künstlicher Intelligenzmodelle, beginnend mit Lama 3.3 8b. Der Schritt entspricht Entwicklern, um AI-gesteuerte Anwendungen zu konstruieren und Meta direkt gegen API-Angebote von Konkurrenten wie OpenAI und XAI zu positionieren. href=”https://ai.meta.com/blog/llama-con-2025-lama-api-lama-protection-tools-impact-grants/”target=”_ leer”> Als”begrenzte freie Vorschau”. Bereitstellung von Tools zur Feinabstimmung-der Prozess der Anpassung eines vorgebliebenen Modells an eine bestimmte Aufgabe mit benutzerdefinierten Daten-beginnt mit dem Lama 3.3 8B-Modell. Entwickler können einzigartige Datensätze generieren, das Modell trainieren und dann die Evaluierungssuite von Meta innerhalb der API verwenden, um die Leistung ihres speziellen Modells zu bewerten. (SDKs) In Python und Typenkript, die über sein llama github zugänglich ist, stellte auch die Kompatibilität der API-Kompatibilität mit der OpenAI-SDK fest, um die Migration für Entwickler zu vereinfachen. Sie werden keine Kundendaten verwenden, die über die API eingereicht wurden, um ihre eigenen Grundlagenmodelle zu schulen, und bestätigt, dass benutzerdefinierte Modelle, die mit der Lama-API erstellt wurden, Berichten zufolge auf verschiedene Hosting-Anbieter verlegt werden können. Die Preisdetails für den kommerziellen Dienst nach der Vorschaupunktzeit wurden zum Zeitpunkt der Ankündigung nicht bekannt gegeben. Meta kündigte experimentelle, anforderungsbasierte Zugriff auf Lama 4 Scout und Maverick an, die über Hardware-Partner Cerebras und GREQ.”Indem Entwickler einfach die Namen der Cerebras-oder GROQ-Modellnamen in der API auswählen, können sie […] ein optimiertes Erlebnis mit allen an einem Ort verfolgten Gebrauch genießen”, schreibt Meta in seinem Blog-Beitrag. href=”https://www.prnewswire.com/news-releases/meta-and—-Collaborate-to-deliver-fastinference-for-the-official-Llama-3024441674.html”Target=”_ Blank”> entsprechende Presseveröffentlichung Die LPUSP-MOSCH-MODEL-MODEL-MODEL-MODEL-MODEL-MODEL-DER SPUSPUS-SPIP-SPIP CANCELATE THE LLAME Die LLAME-MODEL-MODEL. pro Sekunde-Token sind die Einheiten von Text Die Modellprozesse-die Migration von OpenAIs API erfordert minimale Codeänderungen. Wie diese speziellen Hardware-Integrationen unter verschiedenen realen Ladungen abschneiden, bleibt ein Bereich, der zu sehen ist. Diese Aufstellung enthält Modelle wie LLAMA 4 Scout (109B Gesamtparameter) und Maverick (400b Gesamtparameter), die Techniken wie Expertenmischungen (MOE) verwenden, um nur die notwendigen Modell-Subkomponenten für eine bestimmte Aufgabe zu verbessern, um die Effizienz zu verbessern-und für native Multimodalität, Entwicklungstext und Bilder, die sich gemeinsam zugradieren können. Programmatisch durch Cloud-Partner wie AWS und Azure, obwohl sie häufig bestimmte Setups oder Gated Access benötigen. Meta verteilt diese Modelle unter einer benutzerdefinierten kommerziellen Lizenz, die sich von traditionellen Open-Source-Ansätzen unterscheidet. Die neue Lama-API erscheint darauf, eine direktere, feature-reichen (einschließlich der Feinabstimmungsfunktionen) und eine optimierte Entwicklererfahrung im Vergleich zu Cloud-Integrationen von Drittanbietern zu bieten. Microsoft trägt wahrscheinlich zur Strategie für den Start eines kommerziellen API-Service bei. href=”https://www.threads.net/@zuck/post/dhv7vtivqwd?xmt=aqgzxwyojqe4qehbcnelophuelozzwcTbsrlrlrhd3k4fgsw”Target=”_ bloße. Community.
Meta wird jedoch häufig nicht in derselben Stufe wie Openai oder Anthrop im KI-Feld wahrgenommen, und wurde in jüngster Zeit in Bezug auf seine Lama 4-Benchmark-Präsentationen konfrontiert. Die API tritt in ein wettbewerbsfähiges Feld mit OpenAs hochpreisiger O1-pro-API und budgetfreundlicher Flex-Stufe ein, zusammen mit der GROK 3-API von Xais GROK 3 am 10. April. Es ist erwähnenswert, dass die Schlussfolgerungen über die Wettbewerbsfähigkeit des LMA-API-Vorschubs des LMA-API vorläuft. Die Lama-API wird mit Modellen zusammenarbeiten, die von den spezifischen Designprinzipien von Meta beeinflusst werden. Das Unternehmen erklärte am 10. April sein Ziel, Llama 4 gegen wahrgenommene politische Neigungen zu stimmen, die in Modellen, die in weitreichenden Internetdaten ausgebildet sind, in den LLAMA 4-Ankündigungsblog zu finden sind. Meta-Behauptungen interne Tests zeigen Verbesserungen in der Neutralität. Teil der größeren KI-Strategie von Meta, die die gleichzeitige Einführung ihrer Verbraucher-Meta-AI-App und vergangene Wettbewerbsaktionen wie Blockierung von Apple Intelligence-Funktionen in ihren Produkten umfasst.