Microsoft verwandelt Windows 11 in einen „KI-PC“ mit einem heute angekündigten großen Copilot-Update, das die Interaktion mit Computern natürlicher und intelligenter machen soll.

Ein neues Weckwort „Hey, Copilot“ ermöglicht es Benutzern, Sprachbefehle zu erteilen, während das jetzt weltweit verfügbare Copilot Vision es der KI ermöglicht, zu sehen und zu verstehen, was auf dem Bildschirm angezeigt wird, um Hilfe zu leisten.

Microsoft zeigt auch eine experimentelle Vorschau an Copilot-Aktionen, die es dem Assistenten ermöglichen, Aufgaben direkt am PC für den Benutzer auszuführen. Diese Updates, die jetzt eingeführt werden, stellen die Vision von Microsoft dar, einen proaktiven KI-Partner tief in den Kern seines Betriebssystems zu integrieren.

Der Consumer Chief Marketing Officer des Unternehmens, Yusuf Mehdi formulierte das Ziel klar und erklärte: „Unsere Vision ist: Lasst uns das gesamte Betriebssystem rund um die KI neu schreiben und im Wesentlichen das bauen, was der wahre KI-PC wird.“

Die Überarbeitung signalisiert eine strategische Wette, dass es in der Zukunft des Personal Computing nicht nur um Rechenleistung geht, sondern um intelligente, gesprächige Interaktion. Ziel ist es, jedes Windows 11-Gerät zu einer Plattform für dieses neue Paradigma zu machen, das auch Copilot-Anschlüsse für Dienste wie Gmail umfasst.

„Hey, Copilot“: Stimme wird zur zentralen PC-Eingabe

Microsoft unternimmt einen erneuten und ehrgeizigen Vorstoß, um Sprache als primäre Methode der PC-Interaktion zu etablieren. Das Herzstück dieser Bemühungen ist das neue Weckwort „Hey, Copilot“, das jetzt allgemein verfügbar ist und die Reibung beseitigt, die mit dem Klicken auf ein Symbol zum Starten einer Unterhaltung verbunden ist. Diese Funktion ist von zentraler Bedeutung für die Strategie des Unternehmens, seine leistungsstarke KI einem breiteren Publikum zugänglicher zu machen.

Dies ist nicht der erste Versuch des Unternehmens zur Sprachintegration. Kritiker weisen schnell auf den spektakulären Misserfolg von Cortana unter Windows 10 vor einem Jahrzehnt hin. Allerdings geht Microsoft davon aus, dass die Ausgereiftheit der modernen KI die Benutzer endlich davon überzeugen wird, dass das Sprechen mit ihrem PC nicht seltsam ist, und eine echte Verhaltensänderung auslösen wird, die in früheren Versuchen nicht möglich war.

Die Zuversicht des Unternehmens wird durch interne Daten gestützt, die darauf hindeuten, dass Menschen, wenn sie Sprache verwenden, doppelt so viel mit Copilot interagieren wie wenn sie Text verwenden.

Microsoft verweist auf bestehende Verhaltensweisen, wie die Milliarden von Minuten, die in Teams-Besprechungen mit Gesprächen verbracht werden und die Verwendung von Barrierefreiheitstools als Beweis dafür, dass Benutzer bereits problemlos mit ihren Geräten sprechen können.

Das Erlebnis ist auf ein nahtloses Erlebnis ausgelegt. Nachdem Sie die Opt-in-Funktion in den Einstellungen aktiviert haben, werden beim Sagen von „Hey, Copilot“ ein Mikrofonsymbol und ein Signalton angezeigt, um zu bestätigen, dass der Assistent zuhört. Benutzer können das Gespräch beenden, indem sie „Auf Wiedersehen“ sagen oder einfach ihre Interaktion beenden. Diese Benutzerfreundlichkeit ist nach Ansicht von Microsoft der „magische Schlüssel“ für Sprache.

[eingebetteter Inhalt]

Yusuf Mehdi, Verbraucherchef von Microsoft, glaubt, dass dieser Wandel tiefgreifend sein wird. „In unseren Augen wird die Stimme jetzt der dritte Eingabemechanismus sein, den Sie mit Ihrem PC verwenden können“, erklärte er in einem Briefing.

Dieses Ziel geht über einfaches Diktieren hinaus und positioniert die Stimme als Werkzeug für komplexe Befehle und Abfragen, das die Lücke zwischen der Absicht eines Benutzers und der Fähigkeit der KI-Eingabeaufforderung schließen kann.

Die ultimative Vision ist ein wirklich gesprächiger und reaktionsfähiger Computer. „Sie sollten in der Lage sein, mit Ihrem PC zu sprechen, ihn verstehen zu lassen und daraus dann Magie entstehen zu lassen.“

Mehdi fügte hinzu. Dies stellt ein erhebliches Risiko dar, denn die KI hat die Sprachinteraktion endlich überzeugend genug gemacht, um jahrzehntelange Benutzergewohnheiten rund um Tastatur und Maus zu ändern.

Eine KI, die Ihren Bildschirm sieht: Copilot Vision wird weltweit eingeführt

Eine Schlüsselkomponente dieser KI-zentrierten Zukunft ist Copilot Vision, das jetzt in allen Märkten verfügbar ist, in denen Copilot angeboten wird. Die Funktion ermöglicht es der KI, den Bildschirm eines Benutzers zu „sehen“ und zu analysieren und so kontextbezogene Hilfe für jede Anwendung bereitzustellen.

Diese Funktion hat sich seit der ersten begrenzten Vorschau, die auf den Edge-Browser beschränkt war und ein kostenpflichtiges Abonnement erforderte, schnell weiterentwickelt.

Die Funktion verwandelt Copilot von einem passiven Chatbot in einen aktiven, visuellen Leitfaden. Im Gegensatz zur umstrittenen Recall-Funktion ist Vision ausschließlich optional und nicht immer aktiviert.

Benutzer müssen für jede Sitzung explizit die Erlaubnis erteilen, indem sie auf ein bestimmtes „Brillensymbol“ klicken, wodurch ihre Bildschirmansicht im Wesentlichen auf eine Art und Weise gestreamt wird, die einem Teams-Anruf ähnelt.

Nach der Aktivierung kann Vision Schritt-für-Schritt-Anleitungen anbieten, PC-Probleme beheben oder Fragen zu Bildschirminhalten beantworten. Die Funktion wurde von der Anzeige einzelner Anwendungen auf einen vollständigen „Desktop Share“-Modus erweitert, der es der KI ermöglicht, den Kontext im gesamten Arbeitsablauf eines Benutzers zu verstehen.

[eingebetteter Inhalt]

Das Microsoft Copilot-Team erläuterte die Funktionalität mit den Worten: „Wenn Sie Ihren Desktop (oder ein bestimmtes Browser-oder App-Fenster) teilen, kann Copilot sehen, was Sie sehen, und in Echtzeit mit Ihnen darüber sprechen.“

Die praktischen Anwendungen sind umfangreich. Ein Benutzer könnte um Tipps zu einem kreativen Projekt bitten, Hilfe bei der Verbesserung seines Lebenslaufs erhalten oder Anleitung beim Navigieren in einem neuen Spiel erhalten. Eine „Highlights“-Funktion ermöglicht es Copilot sogar, visuell darauf hinzuweisen, wo man klicken muss, um eine Aufgabe abzuschließen. Zur Steigerung der Produktivität kann es eine gesamte PowerPoint-Präsentation auf Erkenntnisse analysieren, ohne dass der Benutzer jede Folie durchblättern muss.

Vision kann zwar sehen und Ratschläge geben, aber nicht im Namen des Benutzers Maßnahmen ergreifen; Diese Funktion ist für die separate Funktion „Copilot-Aktionen“ reserviert. Um das Erlebnis vielseitiger zu gestalten, bereitet Microsoft außerdem einen „Text-in-Text-out“-Modus vor, der es Benutzern ermöglicht, mit Vision über Text statt nur über Sprache zu interagieren.

Diese systemweite Wahrnehmung ist entscheidend für die Bereitstellung wirklich kontextbezogener Hilfe. Indem Copilot versteht, was ein Benutzer tut, kann er relevante Unterstützung bieten, ohne dass langwierige Erklärungen erforderlich sind, und kommt so dem Ziel näher, ein „Alltagsbegleiter“ zu sein. Eine neu gestaltete Taskleiste bietet einen Ein-Klick-Zugriff auf diese Tools und integriert sie so weiter in das Kernerlebnis von Windows.

Vom Assistenten zum Agenten: Copilot Actions übernehmen die Kontrolle über Ihren PC

Das vielleicht zukunftsweisendste Element des Updates ist die experimentelle Vorschau von Copilot Actions für lokale Dateien. Diese Funktion steht Windows-Insidern über Copilot Labs zur Verfügung und ermöglicht es der KI, mehrstufige Aufgaben direkt auf dem PC eines Benutzers auszuführen. Dies stellt einen bedeutenden Schritt in Richtung einer Zukunft der agentischen KI dar, in der der Assistent nicht nur reagiert, sondern aktiv in Ihrem Namen arbeitet.

Diese neue Funktion verwandelt Copilot in das, was Microsoft als „Allzweckagent“ bezeichnet. Anstatt nur Fragen zu beantworten, kann es Apps öffnen, tippen, scrollen und komplexe Aktionsketten ausführen.

Benutzer können eine Aufgabe in ihren eigenen Worten beschreiben – wie das Sortieren von Urlaubsfotos oder das Extrahieren von Informationen aus einem PDF – und der Agent wird versuchen, sie durch Interaktion mit Desktop-und Webanwendungen zu erledigen.

Das System ist so konzipiert, dass es wie ein echter digitaler Kollaborateur funktioniert. Während der Agent im Hintergrund arbeitet, können sich die Benutzer auf andere Dinge konzentrieren. Sie können jederzeit den Fortschritt des Agenten überwachen, die spezifischen Maßnahmen überprüfen, die er ergriffen hat, oder sogar die Kontrolle über die Aufgabe vollständig zurückerhalten. Diese Funktion erweitert die webbasierten Aktionen, die Microsoft erstmals im April angekündigt hat, und bringt die Leistungsfähigkeit der Automatisierung direkt auf den Windows-Desktop.

Das Unternehmen macht jedoch Transparenz über seinen experimentellen Charakter und beginnt mit einer begrenzten Anzahl von Anwendungsfällen, um die Leistung zu optimieren und aus der Praxis zu lernen.

Navjot Virk, Corporate Vice President für Windows Experiences bei Microsoft, warnte, dass das System noch lernt. „Am Anfang kann es sein, dass der Agent einige Fehler macht oder auf einige Herausforderungen stößt, wenn er versucht, einige wirklich komplexe Anwendungen zu verwenden“, bemerkte sie.

Diese Transparenz ist Teil einer bewussten Strategie, um die Erwartungen der Benutzer an diese leistungsstarke, aber junge Technologie zu verwalten.

[eingebetteter Inhalt]

Lernen aus Recall: Ein neuer Fokus auf Opt-In und Sicherheit

Microsoft ist pointiert Betonung des datenschutzorientierten Opt-in-Designs dieser neuen Funktionen. Dieser vorsichtige Ansatz ist eine direkte und notwendige Reaktion auf die heftige Reaktion auf die Windows-Rückruffunktion, die nach ihrer Veröffentlichung heftig wegen ihrer erheblichen Sicherheitslücken kritisiert wurde.

Recall wurde ursprünglich mit dem Versprechen der Privatsphäre auf dem Gerät verkauft. Damals erklärte Yusuf Mehdi: „Recall nutzt Ihren persönlichen semantischen Index, der vollständig auf Ihrem Gerät erstellt und gespeichert wird. Ihre Snapshots gehören Ihnen; sie bleiben lokal auf Ihrem PC.“

Dieses Versprechen wurde gebrochen, als Forscher entdeckten, dass die Funktion ihre Daten in einer unverschlüsselten lokalen Datenbank speicherte und so etwas schuf, was viele als „Goldmine für Malware“ bezeichneten.

Die heftige Kritik zwang das Unternehmen dazu die Funktion zu verschieben und ihre Sicherheit neu zu gestalten. Mit Copilot Vision and Actions geht Microsoft kein Risiko ein.

Das Unternehmen hat klare Sicherheitsverpflichtungen veröffentlicht und betont, dass diese leistungsstarken Agentenerfahrungen verantwortungsvoll eingeführt werden.

Entscheidend ist, dass Copilot Actions standardmäßig deaktiviert ist. Benutzer müssen sich ausdrücklich für die Aktivierung entscheiden und können sie jederzeit pausieren, die Kontrolle übernehmen oder deaktivieren.

Microsoft verspricht außerdem vollständige Transparenz, sodass Benutzer den Fortschritt des Agenten überwachen und jeden von ihm ausgeführten Schritt überprüfen können. Bei sensiblen Entscheidungen kann der Agent sogar eine spezifische Genehmigung einholen, bevor er fortfährt.

Diese Abkehr von der passiven Datenerfassung durch Recall ist entscheidend für den Aufbau des Benutzervertrauens. Das neue Modell für Copilot-Aktionen soll sicherstellen, dass der Benutzer immer die Kontrolle behält, ein starker Kontrast zum ursprünglichen Always-On-Ansatz von Recall. Dieser sorgfältige, zunächst in der Vorschau erfolgende Rollout dient dazu, Feedback zu sammeln und die Sicherheitskontrollen vor einer breiteren Veröffentlichung zu verfeinern.

Letztendlich positioniert Microsoft seinen KI-PC als vertrauenswürdigen Partner. Wie Mehdi erklärte: „Wir möchten, dass jeder, der den Schritt macht, erlebt, was es bedeutet, einen PC zu haben, der nicht nur ein Werkzeug, sondern ein echter Partner ist.“

Der Erfolg dieser ehrgeizigen Vision wird nicht nur von der Leistungsfähigkeit der Technologie abhängen, sondern auch von der Fähigkeit des Unternehmens, Benutzer davon zu überzeugen, dass seine leistungsstarken neuen KI-Tools sowohl sicher als auch geschützt sind.

[eingebetteter Inhalt]

Categories: IT Info