Meta mendorong model AI LLAMA 4 terbaru melalui beberapa saluran, membuat teknologi tersedia baik sebagai layanan terkelola melalui mitra seperti Amazon Web Services dan melalui API pengembang yang baru dipratinjau.

Llama 4 Scout 17B dan Llama 4 Maverick 17b sekarang dapat diakses sebagai dikelola sepenuhnya, tanpa titik servernya. Ketersediaan ini memberikan pengembang opsi siap pakai tanpa mengelola infrastruktur yang mendasarinya, meskipun akses harus diminta terlebih dahulu melalui konsol Amazon Bedrock.

Waktu yang diikuti dengan cermat acara Llamacon Meta pada 29 April, di mana perusahaan mempratinjau API dalam rilis terbatas, memberi sinyal strategi untuk bertemu dengan pengembang di berbeda src=”https://winbuzzer.com/wp-content/uploads/2025/04/Meta-Llama-4-official.jpg”>

Llama 4 on Bedrock: Managed Multimodal AI

The Bedrock offering provides a simplified path for integrating Llama 4 Scout and Maverick, models initially Detail oleh meta pada 6 April. Model-model ini menampilkan arsitektur campuran-ekspert (MOE)-hanya mengaktifkan bagian jaringan saraf yang diperlukan per tugas untuk efisiensi-dengan pengintai yang memiliki 16 ahli (17b parameter total/109b).

juga ada 128 pakar yang menggabungkan pompi, kawan-kidal. tahap pretraining.

Pada batuan dasar, pengembang dapat memanfaatkan fitur-fitur ini menggunakan API Converse Bedrock Unified, antarmuka yang konsisten di berbagai model batuan dasar yang menangani input seperti teks dan gambar dan mendukung output streaming. AWS menyediakan dukungan SDK, termasuk contoh Python yang dirinci dalam posting blog mereka, untuk memfasilitasi integrasi.

AWS menyarankan model-model ini cocok untuk tugas-tugas seperti membangun asisten multibahasa atau meningkatkan dukungan pelanggan dengan analisis gambar. Bedrock saat ini mendukung Windows konteks yang substansial: 3,5 juta token untuk Scout dan 1 juta untuk Maverick, memungkinkan untuk input yang luas. Harga khusus untuk Llama 4 di Bedrock tersedia di situs web AWS.

Jalur yang berbeda: Kesederhanaan Bedrock vs Kustomisasi API

Sementara batuan dasar menawarkan kemudahan penggunaan, target pratinjau Llama API sendiri Meta sendiri yang mencari kontrol deeow. Pendekatan ganda ini melayani kebutuhan yang berbeda, dengan batuan dasar yang menarik bagi mereka yang menginginkan infrastruktur yang dikelola dan API LLAMA yang melayani pengguna yang memprioritaskan kustomisasi.

Perbedaan utama, berdasarkan perbandingan fitur yang diumumkan untuk setiap platform, adalah hal-hal yang tersedia di dalam tunr. Fine-Tune Llama 4 saat ini perlu menggunakan API Meta, berpotensi memanfaatkan opsi melayani eksperimental dengan serebras dan Groq, atau menjadi pembawa acara sendiri.

Strategi distribusi multi-penghargaan ini mencerminkan investasi signifikan yang diperlukan untuk pengembangan model besar; Laporan dari Mid-April mengindikasikan Meta sebelumnya telah mencari dana bersama dari AWS dan Microsoft untuk pelatihan LLAMA, berpotensi menawarkan pengaruh fitur sebagai imbalan.

latar belakang model dan peluncuran yang lebih luas

Pengguna yang melibatkan Llama 4 melalui bedrock atau cara lain harus mencatat Meta yang dinyatakan Meta. The company publicly discussed efforts to tune Llama 4 to address perceived political biases often found in models trained on broad internet data.

In its official Llama 4 announcement, Meta stated, “It’s well-known that all leading LLMs have had issues with bias—specifically, they historically have leaned left when it comes to debated political and social topics… This is due to the types of training data available on the internet.”

Tuning AI ini terjadi bersamaan dengan perubahan kebijakan platform, seperti mengakhiri program pemeriksaan fakta pihak ketiga AS pada Januari 2025. Pada saat itu, kepala kebijakan global Meta Joel Kaplan mengutip kompleksitas moderasi, mencatat tinjauan internal yang menyarankan”satu ke dua dari setiap 10 dari tindakan ini mungkin merupakan kesalahan.”Penggunaan set data buku besar yang diperoleh dari sumber-sumber seperti Libgen melalui BitTorrent. 

Melampaui akses pengembang (yang juga termasuk Sagemaker Jumpstart dan