Ένα κρίσιμο ελάττωμα ασφαλείας στο πρωτόκολλο πρωτοκόλλου μοντέλου του GitHub (MCP) επιτρέπει στους βοηθούς κωδικοποίησης AI να διαρρέουν δεδομένα ιδιωτικών αποθετηρίων, . Οι ερευνητές έδειξαν ότι ένα κακόβουλο github, src=”https://winbuzzer.com/wp-content/uploads/2025/04/github-copilot-official.jpg”> href=”https://github.com/ukend0464/pacman/pull/2″target=”_ blank”> Νέο αίτημα έλξης Στο δημόσιο αποθετήριο.
Οι μηχανικοί μιας παραπλανητικής ροής
Αυτή η επίθεση αξιοποιεί τον τεχνολογικό αναλυτή Simon Willison, στο github copilot mode , το οποίο επιτρέπει στο AI να τρέχει τερματικές εντολές και να διαχειριστεί τα αρχεία, να γίνονται ισχυροί για την κατάχρηση και το Agent Commormons. Forward
Invariant Labs, τα οποία αναπτύσσουν επίσης εργαλεία εμπορικής ασφάλειας όπως href=”https://github.com/invariantlabs-ai/mcp-scan?tab=readme-ov-file#proxy”target=”_ blank”> mcp-scan , προτείνει αρκετές στρατηγικές μετριασμού. Αυτές περιλαμβάνουν την εφαρμογή λεπτομερειών ελέγχων άδειας με γνώμονα το περιβάλλον-για παράδειγμα, μια πολιτική που περιορίζει έναν πράκτορα στην πρόσβαση μόνο ενός αποθετηρίου ανά συνεδρία. Ένα Παράδειγμα ειδικής πολιτικής που παρέχονται από το Invariant Labs για το GuardRails του έχει σχεδιαστεί για να αποτρέψει τη διαρροή Informative Information, ο Simon Expressts για την πρόσβαση σε αυτό το Best Firectories. σαφές, συμβουλεύοντας τους τελικούς χρήστες να είναι”πολύ προσεκτικοί”όταν πειραματίζονται με MCP. Η ανακάλυψη ακολουθεί άλλες ανησυχίες για την ασφάλεια στα εργαλεία προγραμματιστή AI, όπως το A ευπάθεια στο gitlab duo που αναφέρεται από την Security Security . AI-Native Systems, μετακινούνται πέρα από τις διασφαλίσεις σε επίπεδο μοντέλου για να εξασφαλίσουν ολόκληρη την αρχιτεκτονική και τα σημεία αλληλεπίδρασής της.