Pyndantic a introduit un serveur open-source conçu pour Laissez les agents AI exécuter le code Python dans un environnement sécurisé et isolé . Le nouvel outil exploite le Protocole de contexte du modèle (MCP), une norme ouverte initiée par Anthropic, visant à fournir une méthode standardisée pour les systèmes d’IA pour utiliser Python pour les tâches sans accès direct au système hôte. Python Runtime compilé sur WebAssembly (un format binaire de bas niveau permettant des performances quasi natives dans les environnements Web), fonctionnant à l’intérieur du Sécurité conscient deno Javascript/TypeScript Runtime. Cette approche vise à donner aux agents de l’IA la possibilité d’effectuer des tâches basées sur Python en toute sécurité.
Il relève un défi fréquent dans la création d’agents AI capables: leur permettant d’effectuer des calculs complexes ou d’interagir avec les bibliothèques à l’aide de Python, tout en atténuant les risques de sécurité associés à l’exécution de code arbitraire. Documentation de Pydontic pour l’outil, disponible sur ai.pydantic.dev , détaille ses fonctionnalités, y compris une capture robuste de la production standard, des valeurs d’erreur standard et des valeurs de retour pour la prise en charge de l’asynchrones, de la gestion de la dépendance automatique et de la gestion des antécédents. src=”https://winbuzzer.com/wp-content/uploads/2025/04/model-context-protocol.jpg”>
Un pont standardisé pour les outils AI
Le protocole de contexte modèle lui-même a été lancé par les difficultés de la société dans les modèles AI en novembre 2024. Outils externes et sources de données dont ils ont souvent besoin.
Comme l’a expliqué anthropique lors de l’annonce du protocole officiel,”chaque nouvelle source de données nécessite sa propre implémentation personnalisée, ce qui rend les systèmes vraiment connectés difficiles à évoluer.”MCP établit une architecture client standard à l’aide de la fonction standard des applications HTTP.
AI comme clients MCP, interrogeant les serveurs MCP qui exposent des capacités spécifiques telles que les fonctions (outils), l’accès aux données (ressources) ou les modèles d’interaction (invites). Le MCP-Run-Python de Pydantic agit comme un serveur spécialisé dans ce cadre, offrant la capacité distincte de l’exécution générale du code Python via son outil principal, identifié comme run_python_code dans ses exemples de documentation.
Sandboxing, dépendances et utilisation
Le modèle de sécurité de McP-p-python relie sur le sabbasage en couches (le modèle de sécurité) sur le bacs de sable McP) sur le sable en couches (PYODID Et Deno. Cette conception empêche intrinsèquement le code d’accéder au système de fichiers ou au réseau du système hôte, sauf si explicitement autorisé pour les téléchargements de packages.
Un article de blog AWS discutant des serveurs MCP a mis en évidence l’avantage de ces protocoles permettant l’interaction «… tout en gardant des données sensibles locales». Lorsqu’un agent envoie du code Python au serveur via l’outil RUN_PYTHON_CODE, le serveur l’exécute et renvoie une réponse XML structurée. Selon le Exemples de documentation , cette réponse contient généralement des balises comme (si vous indiquez le succès), (si applicable), et avec des détails de trace.
Une caractéristique clé est sa gestion des packages Python. Selon le Pydonticai MCP Documentation , le serveur peut déduire Prise en charge de PyoDide, en utilisant des commentaires en ligne formatés selon le PEP 723 Spécification —A Standard pour un projet de métadata dans le projet Egrdding Metadata dans un scénario, a également été standard pour un projet de métadata dans un échec. par des outils comme le Installateur de package UV . Cela permet un contrôle précis sur l’environnement d’exécution.
L’installation et l’exécution sont gérées via l’exécution de Deno. La documentation de Pydontic recommande d’utiliser la commande «Deno Run» avec l’identifiant officiel du package JSR. Flags spécifiques (`-n`,`-r=node_modules`, `-w=node_modules`,` –node-modules-dir=auto`) sont nécessaires pour accorder les autorisations nécessaires pour le pyodide pour télécharger et cache python composants localement dans un”Node_modules` Node_modules. Mais maintenant déprécié, package npm . Le serveur peut être démarré dans différents modes: `stdio` pour l’interaction directe avec un sous-processus local en utilisant le mcp stdio En utilisant le MCP Server-Sent-Events Transport , ou `réchauffement’
L’intégration dans l’écosystème MCP
Pyndantique a officiellement annoncé son soutien plus large pour le MCP dans le cadre de Pyndanticai vers le 20 mars, alignant «MCP-Run-Python» avec ses outils de développement d’agent. Les développeurs utilisant Pyndanticai (qui nécessite Python 3.10+ pour les fonctionnalités MCP) peut se connecter à `MCP-Run-Python` ou à d’autres serveurs MCP à l’aide de classes client comme` McPServerStDiO` ou `McPServerhttp`, détaillé dans le .
La bibliothèque comprend des fonctionnalités de commodité comme le gestionnaire de contexte `agent.run_mcp_servers ()` pour gérer automatiquement le cycle de vie des serveurs basés sur `STdio`. Les exemples de Pyndanticai démontrent également l’intégration avec logfire pour l’observabilité, en utilisant `logfire.instrument_mcp ()`. Le serveur lui-même prend en charge l’émission de journaux d’exécution comme Messages de journalisation MCP , bien que la documentation ait noté un temporaire limest à l’époque.
La version de `MCP-run-python` ajoute à un nombre croissant d’implémentations de serveur MCP. Microsoft, qui a intégré MCP dans Azure AI vers mars et a collaboré avec Anthropic sur le officiel C # SDK Avril.
De même, AWS a lancé sa propre suite de serveurs MCP open-source ciblant des services AWS spécifiques comme le fondement, le lambda et le CDK, hébergé dans le awslabs/mcp repository. These developments indicate increasing adoption of MCP as a common interface layer.
Client applications known to support connecting to MCP servers include Anthropic’s Claude Desktop, the Cursor code editor, Amazon Q, and VS Code via Mode d’agent de copilot github .
Simon Willison Examiné `MCP-run-python`, notant l’efficacité de l’approche de bacs de sable Deno/Pyodure et fournissant des exemples de fonctionnement des agents de Pyndantique en utilisant le serveur directement via la commande` UV Run`.
La spécification MCP elle-même continue également d’évoluer; Les mises à jour au début de 2025 auraient introduit des exigences OAuth 2.1 pour l’authentification à distance et les mécanismes de transport raffinés.
Bien que le MCP offre un moyen standardisé d’étendre les capacités d’agent d’IA, les développeurs doivent prendre en compte des facteurs tels que la latence de réseau potentielle avec les transports basés sur HTTP et la responsabilité de la mise en œuvre de la gestion des erreurs robuste et des pratiques de sécurité pour les déploiements de production.