Amazon Web Services(AWS)使用模型上下文協議(MCP)推出了開源服務器的集合,旨在改善AI驅動的編碼助手如何與AWS服務和數據進行交互。在,這些服務器為AI代理提供了一種標準化的方式,可以訪問準確的實時AWS上下文,可能加快雲開發工作流程並提高代碼質量。
用開放的標準
brid ai and cloud cloud數據target=“ _ blank”>模型上下文協議,擬人化在2024年11月首次引入。它解決了無法訪問必要外部信息或工具的AI模型的常見問題。正如MCP官方文檔所指出的那樣,“模型上下文協議(MCP)是一個開放協議,可以在LLM應用程序和外部數據源和工具之間進行無縫集成……MCP提供了一種標準化的方式,可以將LLMS連接到所需的上下文。”
Anthropic繼續管理開源協議項目。開發人員可以使用MCP客戶(在AI助手中)通過HTTP連接到MCP服務器,而不是建立眾多自定義集成。服務器目標特定的雲任務
AWS的初始版本包括幾個專注於不同領域的服務器:
核心MCP服務器:是管理其他AWS MCP服務器的協調員。 ( docs ) aws文檔:通過正式搜索API提供對當前AWS文檔的訪問。 ( docs ) amazon bedrock知識庫檢索:啟用了私人發射interiev in bedriev in Bedriev in bedriev in bedriev in bedriev in bedriev in bedriev in bedriev in bedriev in bedriev in bedriev in bedriev in bedriev in bedriev-BedRock是AWS的基礎模型的託管服務。 ( docs docs ) aws cdk&aws cdk&aws cdk&aws terraform:cdk&aws terraform>提供用於InfraStruction(Infraov afermation)的工具(包括secortion(包括secortion),包括section(包括section)。 ( cdk docs ,)成本分析:允許自然語言查詢AWS支出。 (Docs) Amazon Nova Canvas: Integrates with Amazon’s own image generation model, part of its Nova AI family. ( docs docs ) aws圖:通過Python代碼創建架構圖。 ( docs ) aws lambda: 讓AI代理觸發特定的lambda作為工具的特定lambda功能。 (Docs)
The intention, according to an AWS blog post about the launch, is that this protocol allows AI assistants to use specialized tooling and access domain-specific knowledge “all while keeping sensitive data local.”
Setup and Ecosystem Integration
Setting up these servers requires installing the `uv` package utility from Astral, ensuring Python 3.10+ is available, and configuring appropriate AWS credentials.服務器本身通常使用託管在Pypi 上的軟件包。配置發生在客戶端工具中,使用JSON文件,例如〜/.aws/amazonq/mcp.json for Amazon Q Cli,〜/.cursor/mcp.json for code samples in the repository.
Wider Adoption and Considerations
AWS is not the only major cloud provider building on MCP. Microsoft於2025年3月將協議集成到Azure AI中,並開發了官方 c#sdk 。微軟還將MCP連接到了其語義內核框架之類的工具,幾天前在4月18日,它預覽了自己的Azure服務的MCP服務器。
這種不斷增長的支持表明,MCP可能成為AI-Cloud交互的共同層。在標準化接口的同時,實際使用仍然需要注意某些應用程序的潛在HTTP延遲,並且需要開發人員在服務器交互周圍實現強大的錯誤處理和安全性。亞馬遜的策略似乎是多方面的,可以通過持續開發其內部Nova AI模型和工具(如Nova Act SDK)進行補充。
。