Github Copilot, der beliebte Kodierungsassistent mit KI-betriebener, hat eine Reihe neuer Funktionen eingeführt, die sich an Entwickler richten, die mehr Effizienz und Flexibilität in ihren Workflows beantragen. Entwickler? Diese Funktion erhöht jetzt diese Funktion von einem passiven Assistenten zu einem aktiven Codierungsagenten. Anstatt nur den Code vorzuschlagen, ermächtigt der Agentenmodus Copilot, Maßnahmen zu ergreifen, indem Terminalbefehle ausgeführt, Probleme behoben und sogar durch mehrere Dateien navigiert werden. GitHub sagt, dass Entwickler sich auf Aufgaben auf höherer Ebene konzentrieren und sich wiederholte oder fehleranreiche Aktivitäten auf Copilot überlassen. Damit Entwickler mit Github Copilot arbeiten können, ohne zu ändern, wie sie sich ihrem Code nähern. Durch die Anbieten von Hands-Off-Lösungen für grundlegende Korrekturen können Entwickler ihren Codierungsprozess beschleunigen, insbesondere wenn sie mit komplexen Fehlerprotokollen oder Multi-File-Refaktoren zu tun haben.

Neben der breiteren Copilot-Expansion hat Github seine offizielle MCP-Server-Repository basierend auf Anthropic-Model-Conx-Proteokolen und Ermöglichung der Entwicklung von Kopilot-Kompatibilien stillschweigend veröffentlicht. Der Server ist so konzipiert, dass Code-Redakteure mit Modellanbietern und Systemen von Drittanbietern vorhanden sind und den Entwicklern mehr Kontrolle darüber geben, wie und wo ihre KI-Workloads behandelt werden. Die Veröffentlichung erleichtert es, lokal zu testen oder mit LLM-Integrationen außerhalb der eigenen Infrastruktur von Github zu experimentieren. Es wurde in TypeScript geschrieben, unter der MIT-Lizenz veröffentlicht und unterstützt Streaming-Antworten-einen der Kernfunktionen der Spezifikation. Durch die Freigabe der zugrunde liegenden Serverlogik als Open-Source könnte GitHub eine interoperablere Zukunft signalisieren-wobei Agenten, Aktionen und KI-Integrationen nicht mehr ausschließlich an seine eigene Infrastruktur gebunden sind. über einen neuen Github Copilot Pro+ Plan. Pro+ ermöglicht den Zugriff auf anthropische Claude 3.5, 3.7 Sonnet, 3.7 Sonnet Thinking, Google Gemini 2.0 Flash und OpenAI O3-Mini im Allgemeinen über Premium-Anfragen. Diese Modelle bieten Entwicklern anspruchsvollere KI-angetriebene Erkenntnisse wie prädiktive Bearbeitung, Echtzeitvorschläge und kontextbezogene Codeempfehlungen. Dies ist ein merkliches Upgrade des Basic Pro-Plans, das den Entwicklern Zugriff auf Funktionen der nächsten Ebene bietet. Die Aufnahme von GPT-4,5-, Claude 3.7-und Google-Modellen von Google ermöglicht es Copilot, in seiner Codegenerierung noch genauer zu sein, und bietet maßgeschneiderte Lösungen, die den spezifischen Bedürfnissen eines Entwicklers entsprechen. Die KI-Funktionen des Pro+-Plans-Codebasen bieten groß angelegte Codebasen erhebliche Verbesserungen bei Aufgaben wie Debugging, Code-Bewertungen und Fehlerverfolgung zwischen Dateien. Damit positioniert sich Copilot als vollständige Entwicklungsassistentin, die alles von grundlegenden Abschlüssen bis hin zu komplexen Fehlerbehebungsaufgaben bearbeiten kann. Die Funktion bietet eine wertvolle Ergänzung zum Toolkit des Entwicklers, das automatisch Verbesserungen vorschlägt, Fehler erfasst und sicherstellt, dass Code an Best Practices hält. Copilots Code Review Agent optimiert den gesamten Code-Überprüfungsprozess, indem sie Vorschläge zu Pull-Anfragen anbieten. Copilot

Die Integration mehrerer KI-Modelle ist eine weitere signifikante Verbesserung der Copilot-Funktionalität. Github hat sich nur auf OpenAIS-Modelle verlassen und Claude 3.5, Claude 3.7 und Gemini 2.0 Flash von Anthropic und Google aufgenommen. Diese Modelle arbeiten nun in Copilot zusammen und bieten jeweils unterschiedliche Stärken, die sich ergänzen. Dies bedeutet, dass Entwickler die leistungsstärksten vorhandenen Modelle nutzen und die Fähigkeit von Copilot verbessern können, kontextuell geeigneten Code vorzuschlagen und sich an verschiedene Programmiersprachen, Frameworks und Entwicklungsumgebungen anzupassen.