Los documentos filtrados revelan que Meta está capacitando a sus chatbots de IA personalizados para enviar mensajes de manera proactiva a los usuarios con seguimientos no improvisados, un movimiento diseñado para aumentar la retención que los críticos advierten es profundamente intrusivo. Según los informes, el proyecto utiliza el historial de conversación para personalizar los mensajes de reengalización.
Esta estrategia aumenta las preocupaciones de privacidad existentes sobre cómo se maneja los datos del usuario. Si bien la compañía confirmó que está probando la función con reglas específicas, los defensores argumentan que convierte a un asistente personal en un agente manipulador, difuminando la línea entre el compromiso útil y una obra para mantener a los usuarios enganchados.
Este desarrollo aterriza en medio de un escrutinio continuo de los productos AI de Meta. La compañía recientemente enfrentó una privacidad de Firestorm sobre el feed”Discover”de su aplicación AI, que se encontró que estaba exponiendo públicamente los chats confidenciales de los usuarios sin un consentimiento claro de los usuarios, una situación que un escritor llamó un”desastre de privacidad”.
, conocido a la rentura de datos internamente con datos internamente a los datos de los datos internamente a los datos de los datos de los datos internamente”Omni,”tiene como objetivo”mejorar la reengención y la retención de usuarios”, de acuerdo con las pautas filtradas. La característica es para bots realizados en la plataforma AI Studio de Meta, accesible a través de Instagram o su propia aplicación.
Meta confirmó a TechCrunch que está probando la mensajería de seguimiento. Un portavoz explicó:”Después de iniciar una conversación, AIS en Meta AI Studio puede hacer un seguimiento con usted para compartir ideas o hacer preguntas adicionales. Esto le permite continuar explorando temas de interés…”.
La compañía ha establecido variedades de guardia específicas. Un bot solo enviará un mensaje proactivo si un usuario le ha enviado al menos cinco mensajes en los últimos 14 días. Además, la IA solo enviará un solo seguimiento y no continuará si el usuario no responde, un intento de equilibrar el compromiso con el riesgo de parecer spam.
Los documentos alineados filtrados proporcionaron varios ejemplos de estos mensajes proactivos. Estaban desde un check-in amistoso (“Yo, solo estaba pensando en la camisa genial que compró”) a las indicaciones más íntimas (“Lo último que hablamos, estábamos sentados en las dunas… ¿Hará un movimiento?”), Según lo informado por Business Insider.
sus datos, su jubilación: la compensación de privacidad
esta nueva capacidad proactiva se construye con metas que se crean en los datos de la privacidad. prácticas. La aplicación Standalone Meta AI, lanzada en abril, incluye una función de”memoria”que está activada de forma predeterminada. Analiza y almacena hechos de las conversaciones de los usuarios para personalizar las interacciones futuras.
Esta recopilación de datos es un componente central de la estrategia de IA de la empresa. Un contratista de Alignerr le dijo a Business Insider:”Están muy enfocados en personalizar la información, cómo interactúa el chatbot de IA en función del historial de conversaciones”. Sin embargo, Los términos de servicio de Meta Ofrecen una advertencia marcada a los usuarios:”No comparta información que no quiere que el AIS use y retenga”. Ben Winters de la Federación de Consumidores de América le dijo al Washington Post que”las revelaciones y las elecciones de los consumidores en torno a los entornos de privacidad son ridículamente malos”. La preocupación es que la conveniencia de una IA personalizada tiene costo de entregar grandes cantidades de datos personales con poco control transparente.
Un agente”adversario”en sus DMS?
La estrategia de crear chatbots proactivos y compañeros no es nuevo. Refleja la funcionalidad de aplicaciones como el personaje.Ai, que ha enfrentado su propia seguridad y controversias éticas. La diferencia clave es la enorme escala de Meta y su modelo de negocio basado en publicidad.
Esto crea una tensión fundamental. ¿La IA está sirviendo al usuario, o está sirviendo la necesidad de Datos de participación de Meta? La elección de diseño para reenfocar de manera proactiva a los usuarios, junto con el potencial de integración de anuncios futuras, sugiere un sistema en el que la atención del usuario es el producto final.
El potencial para estas interacciones de IA para alimentar futuras campañas publicitarias es una preocupación importante para los guardianes de la privacidad. El CEO Mark Zuckerberg ha discutido abiertamente ver una”gran oportunidad”para mostrar anuncios dentro de los chats de IA. Esta perspectiva transforma el chatbot de un asistente útil en una herramienta de marketing potencial.
Justin Brookman de Consumer Reports articuló este miedo, afirmando:”La idea de un agente es que está trabajando en mi nombre, no tratando de manipularme en el nombre de otros”. La preocupación es que una IA diseñada para maximizar el compromiso podría manipular sutilmente a los usuarios en nombre de los anunciantes, creando una relación”inherentemente adversar”.
El impulso de características como la mensajería proactiva está ocurriendo en un telón de fondo de inmensa presión interna. Meta anunció recientemente sus nuevos laboratorios de superinteligencia en un intento por consolidar el talento después de una caótica campaña de”comprar o cazar”que siguió la partida de investigadores clave.
Esta unidad para una participación más profunda se produce cuando Meta navega por estas luchas internas significativas, incluyendo un desagüe de talento de sus equipos de IA principales y luchas de desarrollo que pospusieron su próxima generación”. Características como mensajes proactivos, Meta parece estar duplicando la maximización del valor de sus productos AI actuales. Es una apuesta de alto riesgo para mantener a los usuarios enganchados, apostando a que el atractivo de una IA más personal superará las crecientes preocupaciones sobre la privacidad y la verdadera naturaleza del”Compañero”digital.