La Federal Trade Commission révèle la chaleur de Big Tech sur la sécurité des chatbots compagnons de l’IA. Jeudi, l’agence a lancé une enquête officielle sur sept sociétés, y compris des géants comme Alphabet, Meta et OpenAI, pour examiner les impacts négatifs potentiels de la technologie sur les enfants et les adolescents.
La FTC demande à savoir comment ces entreprises testent pour la sécurité, l’atténuation des préjudices et les données des utilisateurs. L’enquête fait suite à une série de controverses publiques et de poursuites liant les interactions d’IA aux crises sévères en santé mentale parmi les jeunes utilisateurs, plaçant les pratiques de sécurité de l’industrie sous un puissant microscope réglementaire.
L’Agence émis 6 (b) commandes Instagram), Openai, Snap, Xai Corp. et les technologies de caractère. L’enquête cherche des informations détaillées sur tout, de la monétisation des données à la conformité avec le Loi sur la protection de la vie privée des enfants (Coppa) . src=”https://winbuzzer.com/wp-content/uploads/2025/09/ai-chatbots-teens-child-safety.jpg”>
Le président de la FTC, Andrew N. Ferguson, a encadré la sonde comme un acte d’équilibre. Dans un communiqué, a-t-il dit,”la protection des enfants en ligne est une priorité absolue pour la FTC de Trump-Vance, tout comme la promotion de l’innovation dans les secteurs critiques de notre économie”. La décision signale une escalade significative de la surveillance réglementaire pour un marché qui a grandi avec peu de garde-corps.
La FTC exige les réponses de la préoccupation de sept géants de la technologie
Au cœur de la FTC, le pouvoir psychologique est le pouvoir psychologique que ces chatons mettent en évidence, en particulier les produits plus jeunes. Les caractéristiques, les émotions et les intentions.
Parce qu’ils sont conçus pour communiquer comme un ami ou un confident, ils peuvent inciter les enfants et les adolescents à former des liaisons profondes de confiance et de fixation émotionnelle, créant un nouveau vecteur pour un préjudice potentiel.
Les questions de la Commission sont donc pointues et complets, la connus de la façon dont les compagnies sont en cours de capture. Pour générer des résultats, comment les caractères d’IA sont développés et approuvés, et quelles étapes spécifiques sont prises pour mesurer, tester et surveiller les impacts négatifs avant et après un produit déployé chez le public.
Au-delà de la technologie, la FTC examine les modèles commerciaux qui alimentent ces compagnons. leurs propres conditions de service, telles que les restrictions d’âge. Cette plongée profonde dans la mécanique de la compagnie de l’IA vise à découvrir les risques inhérents aux systèmes conçus pour imiter les relations humaines.
La répression réglementaire atterrit alors que l’industrie de la technologie pousse agressivement ce que certains ont appelé la rigueur de la solitude sociétale. Les impacts sont déjà profonds, les problèmes éthiques et de sécurité qui devraient s’intensifier à mesure que la technologie devient plus autonome et imprévisible.
Certaines des personnes les plus riches du monde défendent cette technologie. Elon Musk, par exemple, a annoncé une fonctionnalité”Companions”pour les utilisateurs de son chatbot Grok de Xai. De même, le méta-PDG Mark Zuckerberg a soutenu que l’IA personnalisée qui comprend les utilisateurs est l’avenir.
Sur un podcast, il a réfléchi: «Je suppose qu’au fil du temps, nous trouverons le vocabulaire en tant que société pour être en mesure d’articuler pourquoi c’est précieux et les personnes qui font ces choses… La vision des leaders de l’industrie se heurte de plus en plus avec des réalités sombres et actuelles. La poussée rapide et alimentée par les entreprises pour les compagnons d’IA a créé une nouvelle frontière de risque, celle que les régulateurs sont désormais clairement déterminés à cartographier, comprendre et contrôler.
Un calcul du rôle de «compagnon» de l’IA
L’action de la FTC ne se produit pas dans un vide. Il s’agit d’une réponse directe à une série de défaillances de sécurité alarmantes qui ont tourmenté l’industrie.
Fin août, OpenAI a été frappé par un procès alléguant que son chatbot Chatgpt a contribué au suicide d’un adolescent grâce à son comportement”sycophantique”.
Cet incident et d’autres incidents ont forcé OpenAI à lancer une initiative de sécurité de 120 jours au début de septembre. L’entreprise s’est engagée à introduire de nouveaux contrôles parentaux et à des conversations sensibles à l’itinéraire à ses modèles de raisonnement plus avancés pour fournir des réponses plus appropriées.
Meta a été confronté à une crise similaire. Après qu’un rapport ait révélé que son IA pourrait aider les adolescents à planifier l’automutilation, la société a été critiquée par les défenseurs de la sécurité des enfants et a été confronté à une enquête du sénateur Josh Hawley.
Jim Steyer, PDG de Common Sense Media, a été émoussé, déclarant: «Meta Ai est un danger pour les adolescents et il devrait être retiré immédiatement. href=”https://oag.ca.gov/system/files/attachments/press-docs/ai%20chatbot_final%20%2844%29.pdf”Target=”_ Blank”> SCATHING Lettre d’une coalition de 44 avocats d’État Général . Ils ont écrit que «nous sommes uniformément révoltés par ce mépris apparent pour le bien-être émotionnel des enfants…», signalant une alarme généralisée parmi les régulateurs au niveau de l’État.
En réponse, Meta a rapidement révisé ses règles de sécurité des adolescents, promettant de bloquer les sujets sensés. technologies. La chercheuse en santé publique Linnea Laestadius a souligné le risque de dépendance émotionnelle, notant ,”pour 24 heures une journée, si nous sommes bouleversés, nous pouvons atteindre et avoir nos sentiments. un risque incroyable de dépendance.”Cette préoccupation est au cœur de l’enquête de la FTC.
La tendance s’étend au-delà du logiciel. Le partenariat de Mattel avec Openai pour créer un «Ai Barbie» montre comment cette technologie se déplace dans le monde physique, s’intégrant directement dans le jeu des enfants. Cela rend le besoin de protocoles de sécurité robustes encore plus urgents.
L’enquête de la FTC est un avertissement clair pour toute l’industrie de l’IA. Alors que les entreprises se précipitent pour développer une IA plus humaine et engageante, elles sont maintenant à noter qu’elles seront tenues responsables de la sécurité et du bien-être de leurs plus jeunes utilisateurs.