Microsoft untergräbt die Hardware-Exklusivität, die seine ursprüngliche KI-Strategie definierte, und verlagert die Schwerarbeit für „KI-PC“-Funktionen vom lokalen Silizium in die Cloud.

Das Unternehmen stellte am Dienstag „KI-fähige Cloud-PCs“ vor, eine neue Serviceebene, die Flaggschiff-Funktionen von Copilot+ (wie „Click to Do“ und intelligente Suche) auf jedes Gerät streamt und so die 40 TOPS NPU-Anforderung, die zuvor für die lokale Ausführung vorgeschrieben war, effektiv umgeht.

Der strategische Wandel fällt mit einer großen Erweiterung für Azure Virtual Desktop zusammen, das jetzt Hybridbereitstellungen auf lokalen Servern über Azure Arc unterstützt und damit ältere Virtualisierungskonkurrenten wie Citrix direkt herausfordert.

Cloud statt Silizium: Der KI-PC wird neu definiert

Microsoft hat die Kategorie „KI-PC“ offiziell aufgeteilt und einen parallelen Weg geschaffen, bei dem reine Rechenzentrumsberechnungen spezialisiertes lokales Silizium ersetzen. Seit Mai 2024 ist die Bezeichnung „Copilot+ PC“ strikt an Geräte gebunden, die mit Neural Processing Units (NPUs) ausgestattet sind, die 40 Billionen Operationen pro Sekunde (TOPS) leisten können, wie zum Beispiel Qualcomms Snapdragon X Elite oder Intels Core Ultra 200V-Serie.

Unter dem neuen „AI-enabled Cloud PC“-Framework, wird diese Hardwarebarriere für Unternehmensabonnenten beseitigt. Anstelle einer lokalen NPU verlagert sich die Anforderung auf eine Cloud-Mindestkonfiguration von 8 vCPUs.

Hochleistungsinstanzen streamen KI-gesteuerte Funktionen wie „Click to Do“ (das Aktionen basierend auf dem Bildschirmkontext vorschlägt) und die Dateisuche in natürlicher Sprache direkt an den Endpunkt des Benutzers, unabhängig von seiner lokalen Verarbeitungsleistung.

Die „Click to Do“-Funktion von Windows 11

Christiaan Brinkhoff, Principal PM von Microsoft, formulierte das Update als eine Entkopplung von Erfahrung und Hardware, unter Hinweis darauf, dass die neuen Instanzen „die Leistung von Windows 365 mit KI-Beschleunigung kombinieren … und integrierte Ergebnisse liefern.“ Windows-KI-Erlebnisse auf jedem Gerät.“

Durch die Nutzung des „Frontier“-Early-Access-Programms können Unternehmen diese Funktionen sofort in unterstützten Azure-Regionen bereitstellen, darunter West-USA 2, Ost-USA und Westeuropa.

Die Architektur stützt sich auf das, was das Unternehmen als „Cloud-PCs, die die Rechenleistung dynamisch für mehr On-Demand-Leistung anpassen und sicher aus der Microsoft Cloud streamen“ beschreibt, und steigert die Leistung für Inferenzaufgaben, ohne die lokale Batterielebensdauer zu belasten oder thermischen Spielraum zu fordern.

Dies ist eine plötzliche Änderung in der Nachrichtenübermittlung. Seit über einem Jahr betont Microsoft im Marketing, dass KI mit geringer Latenz eine Verarbeitung auf dem Gerät erfordert, um Datenschutz und Geschwindigkeit zu gewährleisten.

Die Bindung an Azure durchbrechen: AVD wird hybrid

Über das KI-Rebranding hinaus weitet Microsoft auch die Reichweite von Azure Virtual Desktop (AVD) aggressiv auf lokale Rechenzentren aus. Die eingeschränkte Vorschauverfügbarkeit von „Azure Virtual Desktop für Hybridumgebungen“ markiert eine strukturelle Änderung, die es AVD-Sitzungshosts ermöglicht, über Azure Arc auf lokalen Servern ausgeführt zu werden.

Zuvor war AVD weitgehend an die öffentliche Cloud-Infrastruktur von Azure oder bestimmte Azure Stack HCI-Konfigurationen gebunden. Das neue Hybridmodell unterstützt die Bereitstellung auf Bare-Metal-Hyper-V-, VMware vSphere-und Nutanix AHV-Clustern und erfüllt wichtige regulatorische Anforderungen in Sektoren wie dem Gesundheitswesen und dem Finanzwesen, wo Gesetze zur Datenresidenz öffentliche Cloud-Speicher häufig verbieten.

Scott Manchester, VP of Product für Windows 365, erklärte, dass die Hybridarchitektur „eine hervorragende Grundlage für Kunden bietet, Azure Virtual Desktop vor Ort auszuführen.“

Zu den Startpartnern der Initiative gehören: Nerdio, ControlUp und Nutanix signalisieren einen gemeinsamen Vorstoß zur Verdrängung veralteter VDI-Lösungen von Citrix und Omnissa.

Nutanix CCO Tarkan Maner beschrieb die Integration als „eine Kombination, die Kunden schon lange haben.“ nachgefragt und ist ein weiteres Beispiel für die Notwendigkeit hybrider Cloud-Lösungen“, während Nerdio-CEO Vadim Vladimirskiy es als „einen großen Fortschritt für Unternehmen, die ohne Unterbrechung innovieren wollen,“ bezeichnete.

Die Endpunktgleichung: Hardware und Lizenzierung

Ergänzt wird die Softwareerweiterung durch den Windows 365 Link, einen 349 US-Dollar teuren Mini-PC, der ursprünglich Ende 2024 angekündigt wurde und nun als primärer Endpunkt dafür positioniert ist KI-Streams. Das lüfterlose Gerät unterstützt zwei 4K-Monitore und fungiert als sicheres Gateway zur Cloud, ohne dass lokale Daten gespeichert werden.

Für Schichtarbeiter hat Microsoft auch den „Shared Mode“ für Windows 365 Frontline eingeführt. Dieses Lizenzmodell ermöglicht es mehreren Mitarbeitern, eine einzelne Cloud-PC-Bereitstellung nacheinander zu nutzen. Wenn sich ein Benutzer abmeldet, wird die Sitzung gelöscht und der Computer für den nächsten Mitarbeiter zurückgesetzt. Eine solche Optimierung senkt die Kosten für Einzelhandels-und Gesundheitsumgebungen, in denen ein 1:1-Gerätebesitz nicht erforderlich ist.

Sicherheitsprotokolle für die neuen KI-Funktionen stellen sicher, dass alle Inferenzdaten innerhalb der vertrauenswürdigen Cloud-Grenze des Benutzers bleiben und die EUDB-Compliance-Standards einhalten. Durch die Verarbeitung sensibler Abfragen in der Cloud statt auf dem Gerät behalten IT-Administratoren eine strengere Kontrolle über Datenlecks, ein Hauptanliegen bei lokalen KI-Modellen, die auf Mitarbeiter-Laptops ausgeführt werden.

Categories: IT Info