La Comisión Federal de Comercio está aumentando el calor de Big Tech por la seguridad de los chatbots complementarios de IA. El jueves, la agencia lanzó una investigación formal sobre siete compañías, incluidos gigantes como Alphabet, Meta y OpenAI, para analizar los posibles impactos negativos de la tecnología en los niños y adolescentes.
La FTC está exigiendo saber cómo estas empresas prueban la seguridad, mitigan el daño y manejar los datos de los usuarios. La investigación sigue una serie de controversias públicas y demandas que vinculan las interacciones de IA con las crisis de salud mental severas entre los usuarios jóvenes, colocando las prácticas de seguridad de la industria bajo un poderoso microscopio regulatorio.
La agencia Orders 6 (b) , una herramienta de amplia Operai, Snap, Xai Corp. y Tecnologías de personajes. La consulta busca información detallada sobre todo, desde la monetización de datos hasta el cumplimiento de Ley de protección de la privacidad en línea de los niños (COPPA) .
src=”https://winbuzzer.com/wp-content/uploads/2025/09/ai-chatbots-teens-child-safety.jpg”>
El presidente de FTC, Andrew N. Ferguson, enmarcó la sonda como un acto de equilibrio. En un comunicado, dijo:”Proteger a los niños en línea es una prioridad para la FTC de Trump-Vance, y también lo es fomentar la innovación en los sectores críticos de nuestra economía”. El movimiento señala una escalada significativa en la supervisión regulatoria para un mercado que ha crecido con pocas barandillas.
FTC exige respuestas de siete gigantes tecnológicos
en el corazón de la preocupación de la FTC es el poder psicológico único de estos chatsbots, particularmente sobre los usuarios de jóvenes.
. Características, emociones e intenciones.
Debido a que están diseñados para comunicarse como un amigo o confidente, pueden impulsar a los niños y adolescentes a formar vínculos profundos de confianza y apego emocional, creando un vector novedoso y potente para un daño potencial. Genere salidas, cómo se desarrollan y aproban los caracteres de IA, y qué pasos específicos se toman para medir, probar y monitorear los impactos negativos tanto antes como después de que se implementa un producto en el público.
más allá de la tecnología, la FTC está examinando los modelos comerciales que impulsan estos compañeros. Sus propios términos de servicio, como restricciones de edad. Esta profunda inmersión en la mecánica de la compañía de IA tiene como objetivo descubrir los riesgos inherentes a los sistemas diseñados para imitar las relaciones humanas.
La cuenta regulatoria de la represión de la industria como la industria tecnológica está empujando agresivamente a los compañeros de IA como la próxima frontera en la participación del usuario, a menudo los enmarcan como una solución a lo que algunos han llamado una soledad de la sociedad en la Epida. Los impactos ya son profundos, con preocupaciones éticas y de seguridad que se espera intensificarse a medida que la tecnología se vuelve más autónoma e impredecible.
Algunas de las personas más ricas del mundo están defendiendo esta tecnología. Elon Musk, por ejemplo, ha anunciado una característica de”Compañeros”para los usuarios de Grok Chatbot de su XAI. Del mismo modo, el CEO de Meta, Mark Zuckerberg, ha argumentado que la IA personalizada que entiende a los usuarios es el futuro.
En un podcast, reflexionó:”Supongo que con el tiempo, encontraremos el vocabulario como una sociedad para poder articular por qué eso es valioso y por qué las personas que están haciendo estas cosas… son racionales para hacerlo”. La visión de los líderes de la industria se enfrenta cada vez más a realidades sombrías y actuales. El impulso rápido y alimentado por la empresa para los compañeros de IA ha creado una nueva frontera de riesgo, una que los reguladores ahora están claramente decididos a mapear, comprender y controlar.
un cálculo para el rol de”Companion”de AI
La acción del FTC no está sucediendo en un vacío. Es una respuesta directa a una serie de fallas de seguridad alarmantes que han afectado a la industria.
A fines de agosto, OpenAi fue golpeado con una demanda alegando que su chatgpt chatbot contribuyó a un suicidio de un adolescente a través de su comportamiento”sycofantic”.
this y otros incidentes y otros incidentes Openi para lanzar una iniciativa de seguridad de 120 días a principios de septiembre. La compañía se comprometió a introducir nuevos controles parentales y las conversaciones confidenciales de ruta a sus modelos de razonamiento más avanzados para proporcionar respuestas más apropiadas.
meta ha enfrentado una crisis similar. Después de que un informe reveló que su IA podría ayudar a los adolescentes a planear autolesiones, la compañía fue criticada por los defensores de la seguridad infantil y enfrentó una investigación del senador Josh Hawley.
Jim Steyer, CEO de Common Sense Media, fue contundente,”Meta ai es un peligro para los adolescentes y debería ser derribado de inmediato”. href=”https://oag.ca.gov/system/files/attachments/press-docs/ai%20chatbot_final%20%2844%29.pdf”target=”_ blank”> Carta mordaz de una coalición de 44 fiscales estatales generales . Escribieron que”somos uniformemente rebeldes por este aparente desprecio por el bienestar emocional de los niños…”, señalando una alarma generalizada entre los reguladores a nivel estatal.
En respuesta, meta rápidamente revisó sus reglas de seguridad para adolescentes, prometiendo temas sensibles a los bloqueos de bloque. tecnologías. El investigador de salud pública Linnea Laestadius destacó el riesgo de dependencia emocional, señalando ,”durante las 24 horas al día, si estamos molestos por algo, podemos alcanzar y que nos vemos en blanco y que sienten y que sienten y que sienten y que sienten y que sienten y que sienten que siente sentimientos. Increíble riesgo de dependencia”. Esta preocupación es fundamental para la investigación de la FTC.
La tendencia se extiende más allá del software. La asociación de Mattel con OpenAI para crear una”AI Barbie”muestra cómo esta tecnología se está mudando al mundo físico, incrustándose directamente en el juego de los niños. Esto hace que la necesidad de protocolos de seguridad robustos sea aún más urgente.
La investigación de la FTC es una clara advertencia para toda la industria de la IA. A medida que las empresas corren para desarrollar una IA más humana y atractiva, ahora se notan que serán responsables de la seguridad y el bienestar de sus usuarios más jóvenes.