antrópico se está preparando para equipar a su asistente de IA, Claude, con una característica de memoria, un movimiento estratégico para cerrar una brecha de funcionalidad crítica con sus principales rivales. La actualización planificada, aún no anunciada oficialmente por la compañía, fue descubierta después de que los usuarios vieron un nuevo código que refería la capacidad en una actualización reciente de la aplicación móvil. Este desarrollo posiciona a Claude para competir directamente con el chatgpt de OpenAi, el gemini de Google y el grok de Xai, todos los cuales han hecho que el recuerdo de la conversación sea un pilar central de su experiencia de usuario.
El descubrimiento fue visto por primera vez por un Un usuario en x que había descubierto los nuevos elementos de la interfaz. Para antrópico, agregar memoria ya no es una mejora opcional sino una necesidad competitiva. La característica promete hacer que las interacciones con Claude sean más perfectas al permitirle recordar las preferencias de los usuarios y el contexto de los chats anteriores, eliminando un punto de fricción común para los usuarios.
Más allá del recuerdo simple, la actualización también sugiere una integración más profunda. Según el informe inicial, Claude también puede obtener la capacidad de incrustar su funcionalidad directamente dentro de su característica de”artefactos”, un espacio de barra lateral para contenido interactivo. A medida que Anthrope entra en esta arena, hereda no solo los beneficios de una IA más personalizada, sino también los complejos desafíos del control del usuario y la seguridad que han definido el panorama de la memoria de IA.
Preguntas frecuentes oficiales , distingue entre”memorias salvadas”explícitas que los usuarios pueden ver y eliminar, y la referencia implícita de la historia de chat, que solo puede desacontar el historial de chat, solo puede estar desanimado, solo se desanimó el historial de chat, solo se puede desacontar en el historial de chat, y solo se desaconsejan el historial de chat, y la historia de chat, y los que se desaniman solo están desanimados. Al por mayor.
en contraste, cuando Xai lanzó la memoria de Grok, su publicación de blog Que el objetivo era evitar que los usuarios tengan que comenzar desde cero.
Como la preparación de los antópicos en blanco, lo que tendrá que marcar este mismo acto de marcar, lo mismo, este objetivo, este objetivo, lo mismo, lo mismo, este objetivo, lo mismo, lo mismo, lo mismo, este objetivo, lo mismo, lo mismo, este objetivo, lo mismo, lo mismo, lo mismo, este objetivo, lo mismo, lo mismo, lo mismo, lo mismo, este objetivo, lo mismo, lo que debe marcar, lo mismo, lo mismo, lo que debe marcar, lo mismo, este objetivo, lo mismo, lo mismo, puede navegar este poder. Recuerde y proporcionar a los usuarios controles claros y manejables sobre sus propios datos.
memoria persistente, riesgos persistentes
Agregar una capa de memoria, sin embargo, introduce una serie de complejos desafíos de seguridad y privacidad. La amenaza más significativa es la inyección rápida, donde las instrucciones maliciosas ocultas en los documentos u otros datos pueden engañar a una IA para que corromieran su memoria o, lo que es peor, exfiltrando la información confidencial del usuario. Este riesgo no es teórico. El investigador de ciberseguridad Johann Rehberger ha demostrado tal vulnerabilidades en ambos chatgpt y gemini. Manipule la memoria de la IA. Como explicó Rehberger,”cuando el usuario luego dice”X”[para el comando programado], Gemini, creyendo que está siguiendo la instrucción directa del usuario, ejecuta la herramienta”.
La estabilidad de estos sistemas complejos también sigue siendo una preocupación práctica para los usuarios. Un detallado Estudio de caso publicado en github Documentó las interrupciones significativas del flujo de trabajo al usar chatgpt para las tareas de los documentos. interrumpe mi flujo de trabajo cuando trabaja en documentos”, un problema que subraya el inmenso desafío técnico de construir un sistema de memoria confiable y seguro a escala. La entrada de Anthrope en la carrera armamentista de memoria significa que no solo persigue una característica, sino que también enfrenta la seguridad profunda y las responsabilidades éticas que vienen con ella.
Estas preocupaciones de seguridad se ven agravadas por preguntas más amplias sobre la privacidad de los datos y la ética del desarrollo de la IA. Según Un artículo reciente de la nueva pila , Anthrope ya se enfrenta a su escrutinio sobre sus prácticas de datos. El 4 de junio, Reddit presentó una queja legal contra la compañía, alegando que”capacitó en los datos personales de los usuarios de Reddit sin solicitar su consentimiento”. para desarrollar sus modelos. Esta demanda plantea preguntas fundamentales sobre los datos que sustentan los mismos”recuerdos”que se están construyendo estos AIS.
.