Meta está presionando sus últimos modelos de IA Llama 4 a través de múltiples canales, haciendo que la tecnología esté disponible tanto como un servicio administrado a través de socios como Amazon Web Services y a través de su propia API de desarrollador recién previamente previa.

llama 4 Scout 17b y Llama 4 Maverick 17b ahora son accesibles como los puntos finales sin servidores en su plataforma Amazon Bedrock. Esta disponibilidad proporciona a los desarrolladores una opción lista para usar sin administrar la infraestructura subyacente, aunque primero se debe solicitar el acceso a través de la consola de rock de Amazon.

El tiempo de Meta, el 29 de abril y las necesidades de personalización de Meta, lo que sigue a los desarrolladores de Meta, lo que sigue a los desarrolladores de Meta. src=”https://winbuzzer.com/wp-content/uploads/2025/04/meta-llama-4official.jpg”>

llama 4 en BedRock: AI multimodal administrado

La oferta de lámina proporciona un ruta simplificada para integrar Llama 4, modelos de AI, y Maverick, Modelas, y Maverick, y Maverick, Modelation, y Maverick, Models, y Maverick. Detallado por meta el 6 de abril. Estos modelos cuentan con una arquitectura de mezcla de expertos (MOE): activar solo piezas de red neuronales necesarias por tarea para la eficiencia, con Scout que tiene 16 expertos (17b activo/109b Total de parámetros) y Maverick que tiene 128 expertos (17B Active/400B Total de parámetros).

. Etapa de preperación.

En el lecho de roca, los desarrolladores pueden utilizar estas características utilizando la API Converse Bedrock Unified, una interfaz consistente en varios modelos de roca madre que maneja entradas como texto e imágenes y admite la salida de transmisión. AWS proporciona soporte SDK, incluidos los ejemplos de Python detallados en su publicación de blog, para facilitar la integración.

AWS sugiere que estos modelos son adecuados para tareas como la construcción de asistentes multilingües o mejorar la atención al cliente con el análisis de imágenes. Actualmente, Bedrock admite ventanas de contexto sustanciales: 3.5 millones de tokens para Scout y 1 millón para Maverick, lo que permite entradas extensas. El precio específico para LLAMA 4 en Bedrock está disponible en el sitio web de AWS.

Distintos rutas: simplicidad de roca de roca vs. personalización de API

mientras que el lecho de roca ofrece facilidad de uso, los propios objetivos de minúsculas de meta, los desarrolladores de los desarrolladores de los desarrolladores más profundos. Este enfoque dual atiende a diferentes necesidades, con Bedrock atrayendo a aquellos que desean infraestructura administrada y la API de LLAMA que atiende a los usuarios que priorizan la personalización.

Una distinción clave, basada en comparar las características anunciadas para cada plataforma, es que las herramientas de evaluación y el ajuste fino que se destacan con la vista previa de LLAMA API no están disponibles directamente dentro del entorno de la plataforma de Amazon. Fine-Tune Llama 4 actualmente necesitaría usar la API de Meta, potencialmente aprovechando las opciones de servicio experimentales con cerebras y groq, o autohosts los modelos.

Esta estrategia de distribución de múltiples avistas refleja la importante inversión necesaria para un gran desarrollo de modelos; Los informes de mediados de abril indicaron que Meta había buscado previamente cofinanciamiento de AWS y Microsoft para el entrenamiento de LLAMA, ofreciendo potencialmente influencia de características a cambio.

fondo de modelo y más amplio. La compañía discutió públicamente los esfuerzos para sintonizar LLAMA 4 para abordar los sesgos políticos percibidos que a menudo se encuentran en modelos capacitados en datos amplios de Internet.

En su anuncio oficial de LLAMA 4, Meta declaró:”Es bien sabido que todos los LLM principales han tenido problemas con el sesgo, especialmente, históricamente se han inclinado a la izquierda cuando llega a los temas políticos y sociales debatidos… Esto es debido a los tipos de tipos de tipos de datos de los datos de sesgo.

Esta sintonización de IA ocurrió junto con los cambios en las políticas de la plataforma, como poner fin al programa de verificación de datos de terceros de Meta en los Estados Unidos en enero de 2025. En ese momento, el jefe de política global de Meta, Joel Kaplan, citó complejidades de moderación, señalando que las revisiones internas sugeridas”uno a dos de cada 10 de estas acciones pueden haber sido las muuelos”. Uso de grandes conjuntos de datos de libros obtenidos de fuentes como LibGen a través de BitTorrent. 

Más allá del acceso al desarrollador (que también incluye a Sagemaker JumpStart y ), Llama 4 Powers Los productos de consumo de Meta, incluida la nueva aplicación Standalone Meta AI lanzada hoy, que se integra con las gafas inteligentes Ray-Ban de la compañía. Se pueden encontrar más detalles para los desarrolladores en la sección Meta Models de la Guía del usuario de Bedrock.