Amazon Web Services (AWS) ha lanciato una raccolta di server open-source utilizzando il Model Context Protocol (MCP), con l’obiettivo di migliorare il modo in cui gli assistenti di codifica basati sull’intelligenza artificiale interagiscono con i servizi e i dati AWS. Dettagliato in awslabs/mcp github repository e rilasciato in un , questi server forniscono un modo standardizzato per gli agenti AI di accedere al contesto AWS accurato e in tempo reale, potenzialmente accelerando i flussi di lavoro di sviluppo del cloud e migliorando la qualità del codice.
Bridging AI e cloud Data con uno standard aperto
La tecnologia principale, Protocollo di contesto del modello , è stato introdotto per la prima volta da antropico nel novembre 2024. Affronta il problema comune dei modelli AI privi di accesso alle informazioni esterne o agli strumenti necessari. Come afferma la documentazione ufficiale MCP,”Il protocollo di contesto del modello (MCP) è un protocollo aperto che consente l’integrazione senza soluzione di continuità tra le applicazioni LLM e le fonti di dati esterne e gli strumenti… MCP fornisce un modo standardizzato per collegare LLMS con il contesto di cui hanno bisogno.”
Antropico continua a sfiduicare il progetto di protocollo open-source. Invece di costruire numerose integrazioni personalizzate, gli sviluppatori possono utilizzare i client MCP (all’interno degli assistenti AI) per connettersi ai server MCP su HTTP, che espongono funzioni specifiche o punti di accesso ai dati.
documenti ) Documentazione AWS: fornisce accesso agli attuali documenti AWS tramite l’API di ricerca ufficiale. ( docs ) raggamon basi. Bedrock è il servizio gestito di AWS per i modelli di fondazione. ( documenti ) AWS CDK & AWS Terraform: offrire strumenti per infrastrutture come codice (iac), incluso il beccov Serverform per la sicurezza. ( cdk docs , ) Analisi dei costi: consente domande sul linguaggio naturale sulla spesa AWS. ; ( docs ) diagramma AWS: aiuti nella creazione di diagrammi di architettura tramite codice Python. ( docs ) aws lambda: lascia che gli agenti AI attivino le funzioni specifiche di lambda come strumenti. ( docs )
L’intenzione, secondo un post sul blog AWS sul lancio, è questo protocollo di AI di utilizzare gli strumenti specializzati di utensili specializzati in dominio”
integrazione di configurazione e ecosistema
Impostazione di questi server richiede l’installazione di “ `UV` pacchetto Utility da astralal ospiti ospitati su pypi . La configurazione avviene all’interno dello strumento client, utilizzando file JSON come ~/.aws/AmazonQ/mcp.json per Amazon Q cli, ~/.Cursor/McP.JSON per Cursor Editor o ~/.Codeium/windsurf/mcpfig.json Windsurf. AWS menziona anche il supporto per l’app Desktop Claude e Cline di Antropic. Gli sviluppatori possono trovare una guida specifica di configurazione e campioni di codice nel repository. Microsoft ha integrato il protocollo in Ai Ai nel marzo 2025 e ha sviluppato un ufficiale c# sdk . Microsoft ha anche collegato MCP a strumenti come il suo framework semantico del kernel e, pochi giorni fa il 18 aprile, ha visualizzato in anteprima i propri server MCP per i servizi di Azure.
Questo crescente supporto punta a MCP potenzialmente diventando un livello comune per l’interazione dell’Ai-cloud. Durante la standardizzazione dell’interfaccia, l’uso pratico richiede ancora attenzione alla potenziale latenza HTTP per alcune applicazioni e alla necessità per gli sviluppatori di implementare una robusta gestione degli errori e la sicurezza attorno alle interazioni del server. La strategia di Amazon appare sfaccettata, completando questa adozione standard aperta con il continuo sviluppo dei suoi modelli e strumenti interni NOVA AI come il Nova Act SDK.