Microsoft está pivotando su estrategia de IA con Vision Copilot para Windows 11, una característica que envía capturas de pantalla de escritorio a los servidores de la compañía para su análisis. Este modelo basado en la nube responde directamente a la intensa crítica de seguridad que plagó a su predecesor, Retall, que almacenó datos localmente.

Sin embargo, este nuevo enfoque simplemente intercambia un conjunto de riesgos de privacidad para otro. Al retener deliberadamente la característica de la Unión Europea, Microsoft reconoce abiertamente los obstáculos regulatorios significativos de su modelo de intercambio de datos. El movimiento cambia fundamentalmente el debate de privacidad del usuario de la seguridad de un dispositivo local a la seguridad de los datos procesados en la nube.

Un pivote deliberado del riesgo local al escrutinio de la nube

El cambio arquitectónico a un modelo de la nube para el análisis de la pantalla es una consecuencia directa de la descripción desastrosa de las ventanas de recuerdo. Presentado en mayo de 2024, el retiro se vendió con una promesa de privacidad en el dispositivo. Yusuf Mehdi de Microsoft declaró en ese momento:”Recuerde aprovechar su índice semántico personal, construido y almacenado por completo en su dispositivo. Sus instantáneas son suyas; se quedan localmente en su PC”. src=”https://winbuzzer.com/wp-content/uploads/2025/07/microsoft-copilot-visision-desktop-share-official.jpg”>

que prometió que los investigadores de seguridad descubrieron que el índice completo almacenó su índice de actividad de los usuarios en una base local no entrelazada, creando una dorada que se hizo rompida cuando los investigadores de seguridad descubrieron todo su índice de la actividad de los usuarios en una base local no entrelazada, creando una dorada de merminada. La reacción feroz obligó a Microsoft a posponer la función y volver a engañar su seguridad.

La compañía recibió”una”señal clara”de que necesitaba”facilitar que las personas elijan”habilitar la función y”mejorar las salvaguardas de la privacidad y la seguridad”, según Pavan Davuluri, la dirección de Microsoft de Windows y los dispositivos. Esto condujo a una versión endurecida y optada de recuperación con cifrado robusto. Con Copilot Vision, Microsoft está intentando evitar el problema de seguridad local por completo moviendo el procesamiento fuera del dispositivo.

El nuevo sistema todavía está optando por cada uso. Para activarlo, un usuario debe hacer clic en un”icono de anteojos”, momento en el que el equipo de Copilot de Microsoft dice”Cuando comparte su escritorio (o cualquier navegador o ventana de aplicación específica), Copilot puede ver lo que ve y hablar con usted en tiempo real”. Esta acción iniciada por el usuario es un intento claro de construir un marco basado en el consentimiento, pero el cambio central es a dónde van los datos a continuación.

datos en el servidor: un nuevo conjunto de promesas y peligros

mediante el envío de capturas de pantalla a sus servidores, Microsoft está cambiando el riesgo de maltratación locales por los riesgos de la nube de la nube: los datos de la nube de la nube: los datos de las capturas de pantalla, las capturas de pantalla, las capturas de pantalla, las medidas de recesas, los datos de los riesgos de los riesgos de los riesgos. Acceso a los empleados y solicitudes de datos del gobierno. La compañía está tratando de evitar estos temores con declaraciones de políticas específicas.

Un portavoz de Microsoft afirmó que con Visión,”los datos de los usuarios no se almacenarán a largo plazo… y”no se utilizan para la capacitación de modelos o la personalización de anuncios”. href=”https://learn.microsoft.com/en-us/microsoft-365-copilot/microsoft-365-copilot-data-privacy-and-security”target=”_ en blanco”> Servicios de copilotes comerciales . Sin embargo, estas promesas dependen de la implementación perfecta y la confiabilidad de los controles internos de Microsoft.

La distinción es crítica. Si bien los datos locales se pueden robar un dispositivo a la vez, una violación del lado del servidor podría exponer datos de millones de usuarios a la vez. Esto eleva las apuestas de cualquier posible falla de seguridad, colocando una enorme carga en Microsoft para proteger los datos que ahora recopila activamente.

La sombra reguladora de la UE las fuerzas de la sombra, una división geográfica

quizás el aspecto más revelador de la visión de copilotos es lo que falta: toda la unión europea europea. La decisión de Microsoft de retener la característica de la UE es una admisión marcada de que su modelo de procesamiento de datos basado en la nube no está lista para las estrictas leyes de privacidad del bloque.

Este movimiento es una reacción directa a las regulaciones como el GDPR y el nuevo acto de AI de la UE, que imponen reglas estrictas sobre la minimización de datos, la limitación de propósito y el consentimiento de los usuarios para los sistemas de AI. En lugar de arriesgarse a un desafío legal, Microsoft ha optado por geofenciar la característica, creando un sistema de dos niveles para su base de usuarios globales.

Esta exclusión proactiva contrasta bruscamente con su manejo de retiro. Para esa característica, Microsoft agregó retroactivamente una herramienta de exportación de datos compatible con GDPR para que los usuarios europeos aborden los derechos de portabilidad de datos. Un portavoz señaló en ese momento:”Microsoft no tiene acceso a su código de exportación y no puede ayudarlo a recuperarlo si se pierde”, colocando la responsabilidad de control en el usuario después del hecho.

en última instancia, la estrategia de visión de copiloto ilustra la tensión creciente entre el deseo de la industria tecnológica de las características de Hungry AI y la pañuelos de pestañas globales cada vez más robustos. La solución de Microsoft no es resolver el conflicto de privacidad subyacente, sino dibujar una línea a su alrededor

Categories: IT Info