Microsoft obraca swoją strategię AI dzięki Copilot Vision dla systemu Windows 11, funkcji, która wysyła zrzuty ekranu stacjonarnego do serwerów firmy do analizy. Ten model oparty na chmurze bezpośrednio reaguje na intensywną krytykę bezpieczeństwa, która nękała jego poprzednik, przypominanie, która przechowywała dane lokalnie.

Jednak to nowe podejście po prostu wymienia jeden zestaw ryzyka prywatności dla innego. Celowo wstrzymując funkcję Unii Europejskiej, Microsoft otwarcie uznaje znaczące przeszkody regulacyjne w swoim modelu podziału danych. Ten ruch zasadniczo przesuwa debatę prywatności użytkowników z bezpieczeństwa urządzenia lokalnego na bezpieczeństwo danych przetwarzanych w chmurze.

Celowe oskarżenie od lokalnego ryzyka do kontroli chmur

Przesunięcie architektoniczne na model chmury do analizy wyścigu jest bezpośrednią konsekwencją katastrofalnego wycofania okien. Zaprezentowane w maju 2024 r. Wycofanie zostało sprzedane obietnicy prywatności na urządzeniu. Yusuf Mehdi firmy Microsoft stwierdził w tym czasie: „Przypomnij sobie, że wykorzystuje swój osobisty indeks semantyczny, zbudowany i przechowywany w całości na urządzeniu. Twoje migawki są twoje; pozostają lokalnie na twoim komputerze.”

Ta obietnica została rozeszta, gdy naukowcy ds. Bezpieczeństwa odkryli, że wycofali się, gdy wspomnieli, że wspominali działalność użytkownika w lokalnej bazie uznania, tworząc goldminę dla Malware. Ostry luz zmusił Microsoft do odroczenia funkcji i ponownego zaprojektowania jej bezpieczeństwa.

Firma otrzymała „wyraźny sygnał”, że musi „ułatwić ludziom wybór”, aby umożliwić funkcję oraz „poprawić ochronę prywatności i bezpieczeństwa”, „Według Pavana Davuluri, Microsoft Głów okien i dewaków. Doprowadziło to do stwardniałej wersji wycofania z solidnym szyfrowaniem. Dzięki Copilot Vision Microsoft próbuje całkowicie ominąć lokalny problem bezpieczeństwa, przesuwając przetwarzanie poza urządzeniem.

Nowy system jest nadal opt-in dla każdego użycia. Aby go aktywować, użytkownik musi kliknąć „ikonę okularów”, w którym to momencie zespół Microsoft Copilot mówi: „Kiedy udostępniasz pulpit (lub dowolną konkretną przeglądarkę lub okno aplikacji), Copilot może zobaczyć, co widzisz i porozmawiać o tym w czasie rzeczywistym”. Ta inicjowana przez użytkownika działanie jest wyraźną próbą zbudowania frameworka opartego na zgodie, ale podstawowa zmiana to miejsce, w którym dane idą następne.

Dane na serwerze: nowy zestaw obietnic i niebezpieczeństw

Wysyłanie ekranów do serwerów, Microsoft ma zamiar zamiar ryzyko zaburzenia lokalnych zaburzeń chmurowych: Large-Scares, UNS, UNS, UNS, UNS, UNS, UNS, UNS, UNS, UNS, UNS, UNS, UNS, UNS, UNS, UNS, UNIOUSHISE. dostęp do pracowników i żądania danych rządowych. Firma stara się zapobiegać tym obawie za pomocą określonych oświadczeń polityki.

Rzecznik Microsoft stwierdził, że dzięki wizji „Dane użytkowników nie będą przechowywane długoterminowe… i„ nie są wykorzystywane do szkolenia modelu lub personalizacji reklam “.„ Ta polityka odzwierciedla szerszą postawę firmy na jej Commercial Copilot Services . Jednak obietnice te opierają się na doskonałej wdrażaniu i wiarygodności wewnętrznych kontroli Microsoft.

Wyróżnienie ma kluczowe znaczenie. Podczas gdy dane lokalne można skradać jedno urządzenie jednocześnie, naruszenie po stronie serwera może ujawnić dane od milionów użytkowników jednocześnie. Podnosi to stawkę wszelkich potencjalnych awarii bezpieczeństwa, powodując ogromne obciążenie Microsoft w celu ochrony danych, które teraz aktywnie gromadzi.

Brakuje przepisu przepisu UE: Cała Związek Europejski. Decyzja Microsoftu o wstrzymaniu tej funkcji z UE jest wyraźnym przyznaniem, że jego oparty na chmurze model przetwarzania danych nie jest gotowy na surowe przepisy dotyczące prywatności bloku.

Ten ruch jest bezpośrednią reakcją na przepisy takie jak RODO i nowa ustawa UE AI, która nakłada ścisłe zasady minimalizacji danych, ograniczenie celu i zgodę użytkownika dla systemów AI. Zamiast ryzykować wyzwanie prawne, Microsoft zdecydował się na geofencję funkcji, tworząc dwupoziomowy system dla swojej globalnej bazy użytkowników.

To proaktywne wykluczenie kontrastuje ostro z obsługą wycofania. W przypadku tej funkcji Microsoft z mocą wsteczną dodał narzędzie eksportu danych zgodnych z RODO dla użytkowników europejskich w celu rozwiązania praw do przenośności danych. Rzecznik zauważył w tym czasie: „Microsoft nie ma dostępu do kodu eksportu i nie może pomóc go odzyskać, jeśli zostanie utracony,„ umieszczając ciężar kontroli użytkownika po fakcie.

Ostatecznie strategia wizji Copilot ilustruje rosnące napięcie między branżą technologiczną dotyczącą branży technologicznej dotyczących funkcji AI i coraz bardziej solidności, fragmentacji ogrodu globalnego. Rozwiązaniem Microsoft nie jest rozwiązanie podstawowego konfliktu prywatności, ale narysowanie linii wokół niego

Categories: IT Info