Amazon Web Services (AWS) har lansert en samling av open source-servere som bruker Model Context Protocol (MCP), med sikte på å forbedre hvordan AI-drevne kodingsassistenter samhandler med AWS-tjenester og data. Detaljert i awslabs/mcp github repository og utgitt under en /coNTOCONLOLOCOLOCOLOCOLOPLOLOCOCOLOS/win> AWS-servere er rettet mot spesifikke skyoppgaver

Den første utgivelsen fra AWS inkluderer flere servere fokusert på forskjellige områder:

Core MCP-server: fungerer som en koordinator for å administrere andre AWS MCP-servere. ( docs ) Amazon Bedrock Knowledge Bases Retriev: Enables Querying of Private Enterprise data hosted in bedrag: Enables spørring av private enterpris-data hosted i bedroc. Berggrunnen er AWSs administrerte tjeneste for grunnmodeller. ( Docs ) aws CDK & AWS Terraform: cdk docs , Terraform Docs ) Kostnadsanalyse: tillater naturlige språkspørsmål om AWS-utgifter. ( Docs ) Amazon Nova lerret: integrerer med Amazons egen bildegenereringsmodell, del av sin nova ai-familie. ( docs ) aws diagram: aids i å lage arkitektdiagram via pythont. ( docs ) aws lambda: lar ai agenter trigger spesifikke lambda-funksjoner som verktøy. ( Docs )

Intensjonen, ifølge et AWS-innlegg om lansering, er at denne protokollen tillater en assistent til å bruke Speccialized Specialed Spective Spective DoPs Access til å bruke STOCPS-Lokal.”

Oppsett og økosystemintegrasjon

Sette opp disse serverne krever å installere ` Uv` Tilgjengelig, og konfigurere passende AWS-legitimasjon. Serverne selv blir vanligvis utført ved hjelp av `UVX`-kommandoen (som kjører pakker i midlertidige miljøer) via pakker som er vert på pypi . Konfigurasjon skjer i klientverktøyet, ved å bruke JSON-filer som ~/.aws/Amazonq/mcp.json for Amazon Q CLI, ~/.cursor/mcp.json for cursor kodeprøver I ML-er på Microsoft integrerte protokollen i Azure AI i mars 2025 og utviklet en offisiell c# sdk . Microsoft har også koblet MCP til verktøy som dets semantiske kjerne-rammeverk, og for bare noen dager siden 18. april forhåndsviste de egne MCP-serverne for Azure Services.

Dette voksende støttepunktene til MCP som potensielt blir et vanlig lag for AI-Cloud-interaksjon. Mens standardisering av grensesnittet, krever praktisk bruk fortsatt oppmerksomhet til potensiell HTTP-latens for noen applikasjoner og behovet for at utviklere skal implementere robust feilhåndtering og sikkerhet rundt serverinteraksjonene. Amazons strategi vises mangefasettert, og kompletterer denne åpne standardadopsjonen med fortsatt utvikling av sine interne Nova AI-modeller og verktøy som Nova Act Sdk.

Categories: IT Info