Meta está presionando sus últimos modelos de IA Llama 4 a través de múltiples canales, haciendo que la tecnología esté disponible tanto como un servicio administrado a través de socios como Amazon Web Services y a través de su propia API de desarrollador recién previamente previa.
llama 4 Scout 17b y Llama 4 Maverick 17b ahora son accesibles como los puntos finales sin servidores en su plataforma Amazon Bedrock. Esta disponibilidad proporciona a los desarrolladores una opción lista para usar sin administrar la infraestructura subyacente, aunque primero se debe solicitar el acceso a través de la consola de rock de Amazon.
El tiempo de Meta, el 29 de abril y las necesidades de personalización de Meta, lo que sigue a los desarrolladores de Meta, lo que sigue a los desarrolladores de Meta. src=”https://winbuzzer.com/wp-content/uploads/2025/04/meta-llama-4official.jpg”>
llama 4 en BedRock: AI multimodal administrado
La oferta de lámina proporciona un ruta simplificada para integrar Llama 4, modelos de AI, y Maverick, Modelas, y Maverick, y Maverick, Modelation, y Maverick, Models, y Maverick. Detallado por meta el 6 de abril. Estos modelos cuentan con una arquitectura de mezcla de expertos (MOE): activar solo piezas de red neuronales necesarias por tarea para la eficiencia, con Scout que tiene 16 expertos (17b activo/109b Total de parámetros) y Maverick que tiene 128 expertos (17B Active/400B Total de parámetros).
. Etapa de preperación.
En el lecho de roca, los desarrolladores pueden utilizar estas características utilizando la API Converse Bedrock Unified, una interfaz consistente en varios modelos de roca madre que maneja entradas como texto e imágenes y admite la salida de transmisión. AWS proporciona soporte SDK, incluidos los ejemplos de Python detallados en su publicación de blog, para facilitar la integración.
AWS sugiere que estos modelos son adecuados para tareas como la construcción de asistentes multilingües o mejorar la atención al cliente con el análisis de imágenes. Actualmente, Bedrock admite ventanas de contexto sustanciales: 3.5 millones de tokens para Scout y 1 millón para Maverick, lo que permite entradas extensas. El precio específico para LLAMA 4 en Bedrock está disponible en el sitio web de AWS.
Distintos rutas: simplicidad de roca de roca vs. personalización de API
mientras que el lecho de roca ofrece facilidad de uso, los propios objetivos de minúsculas de meta, los desarrolladores de los desarrolladores de los desarrolladores más profundos. Este enfoque dual atiende a diferentes necesidades, con Bedrock atrayendo a aquellos que desean infraestructura administrada y la API de LLAMA que atiende a los usuarios que priorizan la personalización.
Una distinción clave, basada en comparar las características anunciadas para cada plataforma, es que las herramientas de evaluación y el ajuste fino que se destacan con la vista previa de LLAMA API no están disponibles directamente dentro del entorno de la plataforma de Amazon. Fine-Tune Llama 4 actualmente necesitaría usar la API de Meta, potencialmente aprovechando las opciones de servicio experimentales con cerebras y groq, o autohosts los modelos.
Esta estrategia de distribución de múltiples avistas refleja la importante inversión necesaria para un gran desarrollo de modelos; Los informes de mediados de abril indicaron que Meta había buscado previamente cofinanciamiento de AWS y Microsoft para el entrenamiento de LLAMA, ofreciendo potencialmente influencia de características a cambio.