Microsoft svänger sin AI-strategi med Copilot Vision för Windows 11, en funktion som skickar skrivbordsskärmdumpar till företagsservrar för analys. Denna molnbaserade modell svarar direkt på den intensiva säkerhetskritiken som plågade sin föregångare, återkallande, som lagrade data lokalt.

Men denna nya strategi handlar helt enkelt en uppsättning integritetsrisker för en annan. Genom att medvetet innehålla funktionen från Europeiska unionen erkänner Microsoft öppet de betydande reglerande hinder för dess datadelningsmodell. Flytten förskjuter grundläggande debatten om användarnas integritet från säkerheten för en lokal enhet till säkerheten för data som behandlas i molnet.

En avsiktlig pivot från lokal risk till molngranskning

Arkitektonisk skift till en moln-först modell för skärmanalys är en direkt följd av den katastrofala utrullningen. Recall, som avslöjades i maj 2024, såldes på ett löfte om integritet på enheten. Microsofts Yusuf Mehdi uttalade vid den tiden,”återkalla utnyttjar ditt personliga semantiska index, byggd och lagrad helt på din enhet. Dina ögonblicksbilder är din; de stannar lokalt på din dator.”

som lovar var krossad när säkerhetsforskare upptäckte återkallelse lagrade hela sin index för användaraktivitet i en enhetlig lokal, som skapade en Goldmine för mal. Den hårda motreaktionen tvingade Microsoft att skjuta upp funktionen och omkonstruera sin säkerhet.

Företaget fick”en”tydlig signal”som det behövde”göra det lättare för människor att välja”att aktivera funktionen och att”förbättra integritet och säkerhetsskydd”,”enligt Pavan Davuluuri, Microsofts huvud för Windows. Detta ledde till en härdad, opt-in-version av återkallelse med robust kryptering. Med Copilot Vision försöker Microsoft att hindra det lokala säkerhetsproblemet helt genom att flytta behandlingen utanför enheten.

Det nya systemet är fortfarande opt-in för varje användning. För att aktivera det måste en användare klicka på en”Glasses-ikon”, vid vilken tidpunkt Microsoft Copilot-teamet säger”När du delar skrivbordet (eller någon specifik webbläsare eller appfönster), kan Copilot se vad du ser och prata med dig om det i realtid.”This user-initiated action is a clear attempt to build a consent-based framework, but the core change is where the data goes next.

Data on the Server: A New Set of Promises and Perils

By sending screenshots to its servers, Microsoft is swapping the risk of local malware for the risks of cloud infrastructure: large-scale data breaches, Obehörig anställdas åtkomst och regeringens dataförfrågningar. Företaget försöker förhindra dessa rädsla med specifika policyuttalanden.

En Microsoft-talesman hävdade att med vision speglar”användarnas data inte på lång sikt… och”används inte för modellutbildning eller annonspersonalisering.”Denna policy speglar företagets bredare ståndpunkt på dess Kommersiella copilot-tjänster . Dessa löften förlitar sig emellertid på perfekt implementering och pålitligheten i Microsofts interna kontroller.

Skillnaden är kritisk. Medan lokala data kan stulas en enhet i taget, kan ett överträdelse av serversidan exponera data från miljoner användare på en gång. Detta höjer insatserna för eventuellt säkerhetsfel och lägger en enorm börda på Microsoft för att skydda de uppgifter som den nu aktivt samlar in.

EU: s reglerande skugga tvingar en geografisk klyftan

kanske den mest berättande aspekten av copilotvisionens utrullning är vad som saknas: hela europeiska unionen. Microsofts beslut att hålla tillbaka funktionen från EU är ett starkt tillträde att dess molnbaserade databehandlingsmodell inte är redo för blockets stränga sekretesslagar.

Detta drag är en direkt reaktion på förordningar som GDPR och den nya EU-AI-lagen, som införs strikta regler för data minimization, ändamål och begränsning och användarföreningar för AI-system. I stället för att riskera en juridisk utmaning har Microsoft valt att geofence funktionen och skapa ett två-nivå-system för sin globala användarbas.

Denna proaktiva uteslutning kontrasterar skarpt med sin hantering av återkallelse. För den funktionen har Microsoft retroaktivt lagt till ett GDPR-kompatibelt dataexportverktyg för europeiska användare för att hantera dataportabilitetsrättigheter. En talesman noterade vid den tiden,”Microsoft har inte tillgång till din exportkod och kan inte hjälpa dig att återfå den om den går förlorad,”placerar den tekniska kontrollens önskan efter det faktum.

i slutändan, den copilot-visionstrategin illustrerar den växande spänningen mellan teknikindustrins önskan om data-hungry ai-funktioner och det ökande robust, fragmenterade landskapet för den växande privata privata privata. Microsofts lösning är inte att lösa den underliggande integritetskonflikten, utan att rita en linje runt den

Categories: IT Info