Google está actualizando su configuración de privacidad de Gemini AI, lo que requiere que los usuarios optenan activamente si no desean que su contenido cargado se use para mejorar los servicios de Google. Los archivos, fotos y videos compartidos con la IA se muestrean para su análisis de forma predeterminada.
Este cambio es parte de una actualización más amplia que Renegle”gemini Activity”a la actividad de las aplicaciones”a la actividad de las aplicaciones”. El movimiento tiene como objetivo mejorar las capacidades de Gemini al tiempo que brinda a los usuarios un control más claro, aunque coloca la carga de deshabilitar la recopilación de datos en el individuo.
sus cargas pronto capacitarán a Gemini, a menos que opte a optar
, la nueva política marca un cambio significativo en la forma en que Google maneja los datos de los usuarios dentro de su Ecosystem AI, lo que coloca la responsabilidad, lo que se aplica a los usuarios. A partir del 2 de septiembre de 2025, Google usará automáticamente una muestra de cargas de usuarios para mejorar sus servicios. Esto incluye una amplia gama de contenido, como archivos, videos, fotos e incluso Capturas de pantalla sobre las preguntas sobre . El cambio otorga efectivamente a la compañía el derecho de analizar este contenido a menos que los usuarios opten explícitamente.
Esta recopilación de datos está regulada por un entorno que se renombra de”gememii actividades a”gemii a la”gemii a las actividades más directas a la actividad de”gemii a”Gemii a la actividad de”gemiini más directo a la”gemi de gemi.”Mantenga la actividad”. Para cualquier usuario de 18 años o más, esta configuración está habilitada de forma predeterminada. Esto significa que para evitar que sus datos se utilicen para la capacitación, las personas deben navegar a sus entornos y deshabilitarlos manualmente. Sin embargo, Google ha aclarado que respetará las opciones anteriores; Si un usuario ya había desactivado la”actividad de las aplicaciones de Gemini”, la nueva configuración de”Actividad Keep”permanecerá deshabilitada para su cuenta.
Los usuarios pueden administrar estos permisos y ver su historial en cualquier momento en su
Cuando un usuario elige eliminar la actividad, ya sea manualmente o a través de la función de entrega automática, Google afirma que inmediatamente comienza el proceso de eliminar los datos de sus sistemas. Según su documentación de soporte, el primer paso es eliminarlo de la vista dentro del producto. Esto es seguido por un proceso separado y más completo diseñado para”eliminar los datos de manera segura y completamente completamente”de su infraestructura de almacenamiento, dando a los usuarios más Control granular sobre su retención de datos . Para contrarrestar la naturaleza de exclusión de su recopilación de datos, Google está presentando”chats temporales”. Esta característica funciona como un modo de incógnito para Gemini, asegurando que las conversaciones no se guarden en el historial de actividades de un usuario o se usen para la personalización. Si bien estos chats ofrecen más privacidad, Google señala que las conversaciones aún se conservan por hasta 72 horas. La Compañía establece que esto es para fines operativos y para procesar cualquier retroalimentación de los usuarios antes de que los datos se eliminen permanentemente. Este enfoque dual de mejorar la personalización, mientras que ofrecer herramientas de privacidad es estratégica. Un portavoz de Google, Elijah Lawal, enfatizó el compromiso de la compañía con la elección del usuario, afirmando:”Igualmente crucial le brinda controles fáciles para elegir la experiencia mejor para usted, por lo que puede activar y desactivar esta función en cualquier momento,”destacando la importancia de la autonomía en el nuevo sistema. Esta actualización coloca a Gemini en competencia directa con rivales que han realizado agresivamente una funcionalidad similar. Michael Siliski, director senior de Gemini, dijo que el objetivo es garantizar que”la aplicación Gemini ahora pueda hacer referencia a sus chats anteriores para aprender sus preferencias, ofreciendo respuestas más personalizadas cuanto más lo use”, haciendo que las interacciones se sientan más naturales y conscientes de contexto. La carrera para la memoria de AI se intensifica en 2025. Incluso habilitó la función para personalizar las consultas de búsqueda web del chatbot, creando un perfil de usuario integral. Microsoft integró una función de memoria en su asistente de copilotes ese mismo mes como parte de una actualización de plataforma masiva. También en abril, Xai de Elon Musk lanzó una capacidad similar para su chatbot Grok, enfatizando el control del usuario sobre lo que recuerda la IA. Sin embargo, no todos los competidores están adoptando una memoria”siempre encendida”. Claude de Anthrope, por ejemplo, adopta un enfoque más cauteloso. El portavoz Ryan Donegan explicó:”Todavía no es una característica de memoria persistente como el chatgpt de OpenAi. Claude solo recuperará y referirá a sus chats anteriores cuando le pida que…,”posicione como una alternativa más deliberada y de presentación de la privacidad en un campo lleno de gente. La memoria de IA introduce una seguridad significativa y desafíos éticos. La capacidad de almacenar y recuperar grandes cantidades de datos de usuarios crea un objetivo valioso para los actores maliciosos y plantea preguntas sobre el manejo de datos. Los investigadores de seguridad cibernética ya han expuesto vulnerabilidades en estos sistemas nacientes. Researcher Johann Rehberger demonstrated how Gemini’s memory could be manipulated through a technique called “delayed tool invocation,”which embeds dormant commands in documents. He explained the risk, stating that when a user gives a programmed command, “when the user later says \”X\”[for the programmed command], Gemini, believing it’s following the user’s direct instruction, executes the tool,”potentially corrompiendo su memoria a largo plazo con información falsa. Esto resalta un nuevo vector para ataques sofisticados en sistemas AI. Se han encontrado vulnerabilidades similares en la memoria de ChatGPT, donde los ataques de inyección inmediatos se usaron con éxito para exfiltrar los datos del retiro de la IA. Estos incidentes subrayan una tensión fundamental en el desarrollo de la IA: equilibrar la funcionalidad avanzada con una seguridad robusta. A medida que AI se integra más en la vida diaria, el debate sobre la privacidad y la seguridad de los datos solo se intensificará. Poner el equilibrio adecuado entre la innovación y la protección del usuario será fundamental para mantener la confianza en un mundo digital cada vez más inteligente y autónomo. .
la carrera de la industria de la industria es más personal ai