Meta sta spingendo i suoi ultimi modelli Llama 4 AI attraverso più canali, rendendo disponibile la tecnologia sia come servizio gestito tramite partner come Amazon Web Services sia come API sviluppatore appena anteprima.

Llama 4 Scout 17B e Llama 4 Maverick 17B sono ora accessibili come completamente gestiti, Serverpoltpoint Serverless sulla sua piattaforma Amazon Bedrock. Questa disponibilità offre agli sviluppatori un’opzione pronta per l’uso senza gestire l’infrastruttura sottostante, sebbene l’accesso debba essere richiesto tramite la console di roccione Amazon.

I tempi hanno seguito da vicino l’evento Llamacon di Meta il 29 aprile. src=”https://winbuzzer.com/wp-content/uploads/2025/04/meta-llama-4-fficial.jpg”>

Llama 4 su Bedrock: gestito multimodale AI

The Bedrock Offering fornisce un percorso semplificato per l’integrazione di Llama: MODVERICH MODVERICK: MODALE MODVERICHE: MODERICHE MODVERICHE MODVERICH Inizialmente dettagliato da Meta il 6 aprile. Questi modelli presentano un’architettura di miscela di esperti (MOE)-Attivazione solo di parti di rete neurale necessarie per attività per efficienza-con Scout con 16 esperti (17B attivo/109b Parametri totali) e maverick con 48 esperti di elaborazioni (immagini di elaborazioni e cuscini attivo e 400b). Congiuntamente dalla fase di pretrattamento.

su Bedrock, gli sviluppatori possono utilizzare queste caratteristiche utilizzando l’API conversa di roccione unificata, un’interfaccia coerente su vari modelli di roccione che gestisce input come testo e immagini e supporta l’output di streaming. AWS fornisce supporto SDK, inclusi esempi di Python dettagliati nel loro post sul blog, per facilitare l’integrazione.

AWS suggerisce che questi modelli sono adatti per attività come la costruzione di assistenti multilingue o il miglioramento dell’assistenza clienti con l’analisi delle immagini. Bedrock attualmente supporta sostanziali finestre di contesto: 3,5 milioni di token per scout e 1 milione per Maverick, consentendo estesi input. Prezzi specifici per Llama 4 su Bedrock è disponibile sul sito Web AWS.

Percorsi distinti: Bedrock Simplicity vs. Personalizzazione

Mentre Bedrock offre facilità d’uso, la propria API di Meta Apri di API di API di API di Meta Apri di API APIVE APIVE APIVE DELL’APIO APIVE DI META Questo doppio approccio serve esigenze diverse, con il rockerba che attrae per coloro che desiderano infrastrutture gestite e l’API LLAMA Catering agli utenti che danno la priorità alla personalizzazione.

Una distinzione chiave, basata sul confronto delle funzionalità annunciate per ogni piattaforma, è che gli strumenti di valutazione sono evidenziati direttamente all’interno dell’Amazzone di Amazon. Per perfezionare Llama 4 avrebbe attualmente bisogno di utilizzare l’API di Meta, potenzialmente sfruttando le opzioni di servizio sperimentali con cerebra e GROQ, o auto-host. I rapporti di Mid-Aprile indicavano che Meta aveva precedentemente cercato il cofinanziamento da AWS e Microsoft per la formazione Llama, offrendo potenzialmente l’influenza delle caratteristiche in cambio.

Il background modello e il più ampio lancio

utenti che si impegnano con Llama 4 o altri mezzi dovrebbero notare obiettivi di Meta durante lo sviluppo. La società ha discusso pubblicamente gli sforzi per sintonizzare Llama 4 per affrontare i pregiudizi politici percepiti spesso trovati nei modelli addestrati su ampi dati su Internet.

Nel suo annuncio ufficiale di Llama 4, Meta ha dichiarato:”È noto che tutti gli LLM principali hanno avuto problemi con i pregiudizi. Specificamente, in particolare, sono storici a sinistra quando si tratta di dibattiti politici e diritti sociali… questo è a causa dei tipi di formazione su telaio.

Questa sintonizzazione dell’intelligenza artificiale si è verificata accanto alle modifiche alla politica della piattaforma, come la fine del programma di controllo dei fatti di terze parti statunitensi nel gennaio 2025. All’epoca, il capo della politica globale di Meta Joel Kaplan, ha citato complessità di moderazione, rilevando le revisioni interne suggerite da uno a due a 10 anni, sostenendo le due a due overyass. di grandi set di dati di libri ottenuti da fonti come Libgen tramite BitTorrent. 

Oltre l’accesso agli sviluppatori (che include anche SageMaker Jumpstart e azure azure e azure e zeure Databricks ), Llama 4 Powers Meta di Meta Products, tra cui la nuova app autonoma Meta AI lanciata oggi, che si integra con gli occhiali smart Ray-Ban della compagnia.

Attualmente, Llama 4 su Bedrock è disponibile negli Stati Uniti (N. Virginia) e US West (Oregon) AWS Regions, con l’accesso a Cross-regaon (OHIO). Ulteriori dettagli per gli sviluppatori sono disponibili nella sezione Modelli Meta Llama della Guida per l’utente di Bedrock.

Categories: IT Info