Meta pousse ses derniers modèles LLAMA 4 à travers plusieurs canaux, ce qui rend la technologie disponible à la fois en tant que service géré via des partenaires comme Amazon Web Services et via sa propre API de développeur nouvellement aperçu.
LLAMA 4 SCOUT 17B et LLAMA 4 MATEICK 17B sont désormais accessibles en tant que points finaux entièrement gérés, sur sa plate-forme Amazon Bedrock. Cette disponibilité offre aux développeurs une option prête à l’emploi sans gérer l’infrastructure sous-jacente, bien que l’accès doit d’abord être demandé via la console du fondement Amazon.
Le calendrier a suivi de près l’événement Llamacon de Meta le 29 avril, où l’entreprise a présenté en avant-première l’API LLAMA dans les besoins limitées, signalant une stratégie pour répondre à différents développeurs d’infrastructure et de préférences et des besoins personnalisés. src=”https://winbuzzer.com/wp-content/uploads/2025/04/meta-llama-4ofincial.jpg”>
llama 4 sur le bedrock: les mannequins gérés multimodal
l’offre de bedRock est une patrage simplifié pour l’intégration de LLALA 4 SCOT et MOEDROCK INITIMENT Détaillé par Meta le 6 avril. Étape de pré-formation.
Sur le substratum rocheux, les développeurs peuvent utiliser ces fonctionnalités à l’aide de l’API Converse du substratum rocheux unifié, une interface cohérente sur divers modèles de substratum rocheux qui gère les entrées comme le texte et les images et prend en charge la sortie de streaming. AWS fournit un support SDK, y compris des exemples de Python détaillés dans leur article de blog, pour faciliter l’intégration.
AWS suggère que ces modèles sont adaptés aux tâches telles que la création d’assistants multilingues ou l’amélioration du support client avec une analyse d’image. Le fondement prend actuellement en charge des fenêtres de contexte substantielles: 3,5 millions de jetons pour Scout et 1 million pour Maverick, permettant de nombreuses intrants. Prix spécifique pour LLAMA 4 sur le substratum rocheux est disponible sur le site Web de l’AWS.
Chemins distincts: Simplicité du substratum rocheux vs personnalisation de l’API
Alors que le substratum rocheux offre une facilité d’utilisation, la propre API LLAMA API de META a cibler les développeurs pour la recherche de contrôle plus profond. Cette double approche répond à des besoins différents, avec un substratum rocheux attrayant pour ceux qui souhaitent une infrastructure gérée et l’API LLAMA s’adressant aux utilisateurs à hiérarchiser la personnalisation.
Une distinction clé, basée sur la comparaison des fonctionnalités annoncées pour chaque plate-forme, est que les outils fins et d’évaluation mis en évidence avec le LLAMA API ont été initialement disponibles directement au sein de l’environnement Amazon Bedrock. Fine-Tune Llama 4 devrait actuellement utiliser l’API de META, en tirant potentiellement des options de service expérimentales avec des cerèvres et du GROQ, ou l’auto-hébergement des modèles.
Cette stratégie de distribution multi-avenue reflète l’investissement significatif nécessaire à un développement important de modèles; Les rapports de la mi-avril ont indiqué que Meta avait précédemment recherché le cofinancement de AWS et Microsoft pour la formation LLAMA, offrant potentiellement une influence des fonctionnalités en retour.
Modèle arrière-plan et déploiement plus large
Les utilisateurs engageant avec LLAMA 4 via le bassin ou tout autre moyen des moyens de noter les objectifs décrits de Meta au cours de son développement. L’entreprise a publiquement discuté des efforts pour régler Llama 4 pour lutter contre les préjugés politiques perçus souvent dans des modèles formés sur de larges données sur Internet.
Dans son annonce officielle de Llama 4, Meta a déclaré: «Il est bien connu que tous les principaux LLM ont eu des problèmes de biais-en particulier, ils ont historiquement pris des données sur les tops politiques et sociaux…
Ce réglage de l’IA s’est produit parallèlement aux changements de politique de plate-forme, tels que la fin du programme de vérification des faits tiers de META de META en janvier 2025. À l’époque, le chef de la politique mondiale de Meta, Joel Kaplan, a cité les complexités de modération, notant les revues internes suggérées”à deux sur deux de ces 10 actions peuvent avoir été des erreurs.”Utilisation de grands ensembles de données de livres obtenus à partir de sources comme Libgen via BitTorrent.
Beyond developer access (which also includes SageMaker JumpStart and Azure AI Foundry and Azure Databricks ), Llama 4 Powers Meta’s Consumer Products, y compris la nouvelle application autonome META AI lancée aujourd’hui, qui s’intègre aux lunettes Smart Ray-Ban de la société.
Actuellement, Llama 4 sur le boudronnage est disponible aux États-Unis East (N. Virginia) et aux États-Unis (OHIO). De plus amples détails pour les développeurs peuvent être trouvés dans la section des modèles Meta Llama du Guide de l’utilisateur du fondement.