Amazon Web Services (AWS) telah meluncurkan kumpulan server open-source yang menggunakan model konteks protokol (MCP), yang bertujuan untuk meningkatkan bagaimana asisten pengkode yang bertenaga AI berinteraksi dengan layanan dan data AWS. Detail dalam awslabs/mcp github repository dan dirilis di bawah , server ini memberikan cara standar bagi agen AI untuk mengakses konteks AWS yang akurat dan real-time, berpotensi mempercepat alur kerja pengembangan cloud dan meningkatkan kualitas kode.

Menjembatani AI dan data cloud dengan standar terbuka

Teknologi inti,

The Core Technology, a Model konteks protokol , pertama kali diperkenalkan oleh antropik pada bulan November 2024. Ini membahas masalah umum model AI yang tidak memiliki akses ke informasi atau alat eksternal yang diperlukan. Seperti yang dinyatakan oleh dokumentasi MCP resmi, “Model konteks protokol (MCP) adalah protokol terbuka yang memungkinkan integrasi yang mulus antara aplikasi LLM dan sumber data eksternal dan alat… MCP menyediakan cara standar untuk menghubungkan LLM dengan konteks yang mereka butuhkan.”

Antropik terus melambungkan proyek protokol terbuka. Instead of building numerous custom integrations, developers can use MCP clients (within AI assistants) to connect to MCP servers over HTTP, which expose specific functions or data access points.

New Server AWS menargetkan tugas cloud spesifik

Rilis awal dari AWS mencakup beberapa server yang berfokus pada area yang berbeda:

Server MCP Core: bertindak sebagai koordinator untuk mengelola server MCP AWS lainnya. ( dokumen ) AWS Dokumentasi: menyediakan akses ke dokumen AWS saat ini melalui API pencarian resmi. ( Documents ) pangkalan Pengetahuan Bedrock Amazon F untuk Ragal: memungkinkan querying Data Ragise. Bedrock adalah layanan terkelola AWS untuk model pondasi. ( Docs untuk infrastruktur (kupu-nonvasi), Integasi (KODEV ICOV ICOV (KODEV ICOV ICOV, AWS CHECKEC: Tawaran Alat untuk infrastruktur. ( cdk docs , ) Analisis Biaya: memungkinkan kueri bahasa alami tentang pengeluaran AWS. ( Documents ) Amazon Nova Canvas: terintegrasi dengan model gambar Amazon sendiri, bagian dari nova AI. ( dokumen ) diagram AWS: membantu dalam membuat diagram arsitektur melalui kode Python. ( dokumen ) AWS Lambda: memungkinkan agen AI memicu fungsi spesifik lambda. ( dokumen )

Niat, menurut p.

Pengaturan dan integrasi ekosistem

Menyiapkan server ini memerlukan pemasangan `UV` Paket ISSITED/installation/”target=”_ blank”> `UV` Paket UVS dari Astral dari Asorse paket yang di-host di pypi . Konfigurasi terjadi di dalam alat klien, menggunakan file JSON seperti ~/.aws/amazonq/mcp.json untuk Amazon q cli, ~/.cursor/mcp.json untuk Kursor editor, or/~ ~ ~ Windsurf. AWS juga menyebutkan dukungan untuk aplikasi dan klinus desktop Claude Anthropic. Pengembang dapat menemukan panduan pengaturan spesifik dan sampel kode di repositori. Microsoft mengintegrasikan protokol ke dalam Azure AI pada bulan Maret 2025 dan mengembangkan pejabat C# SDK . Microsoft juga telah menghubungkan MCP ke alat-alat seperti kerangka kernel semantiknya dan, hanya beberapa hari yang lalu pada tanggal 18 April, mempratinjau server MCP sendiri untuk layanan Azure.

Dukungan yang berkembang ini menunjuk ke MCP yang berpotensi menjadi lapisan umum untuk interaksi AI-cloud. Saat menstandarkan antarmuka, penggunaan praktis masih membutuhkan perhatian pada potensi latensi HTTP untuk beberapa aplikasi dan kebutuhan pengembang untuk menerapkan penanganan kesalahan yang kuat dan keamanan di sekitar interaksi server. Strategi Amazon tampak multifaset, melengkapi adopsi standar terbuka ini dengan berkelanjutan pengembangan model dan alat nova AI internal seperti Nova Act SDK.

Categories: IT Info