Openai a lancé une suite de commandes parentales pour Chatgpt, donnant aux gardiens de nouveaux outils pour gérer l’expérience de leur adolescent avec l’IA. Le déploiement mondial de lundi pour les utilisateurs Web est une réponse directe à la pression juridique et réglementaire sur l’impact de la plate-forme sur la santé mentale des jeunes.

Les nouvelles fonctionnalités arrivent après que les poursuites ont allégué que le chatbot a joué un rôle dans les suicides pour adolescents et que le FTC lance une enquête majeure dans la sécurité des compagnies de l’IA. Le système permet aux parents de relier les comptes avec les adolescents, de filtrer le contenu sensible, de fixer des limites d’utilisation et de recevoir des alertes sur l’automutilation potentielle.

Cela marque un étape critique, s’il est en retard, dans le calcul de l’industrie avec la sécurité de l’IA. Les contrôles sont maintenant disponibles pour les utilisateurs Web, avec l’accès mobile prévu bientôt . src=”https://winbuzzer.com/wp-content/uploads/2025/09/chatgpt-parental-controls.webp”width=”1280″height=”1281″>

Sous le hood: comment les nouveaux contrôles parntaires de Chatgpt fonctionnent

href=”https://openai.com/index/introducing-parental-controls/”cible=”_ Blank”> nouveau système est construit sur un modèle d’opt-in mutuel. Un parent ou un adolescent doit initier une invitation à relier ses comptes, et l’autre partie doit accepter. Une fois connectés, les parents ont accès à un panneau de configuration dédié dans leurs propres paramètres ChatGpt.

À partir de ce tableau de bord, les gardiens peuvent implémenter plusieurs restrictions. Il s’agit notamment de définir les «heures de calme» pour bloquer l’accès, la désactivation du mode vocal, la désactivation de la fonction de mémoire du chatbot pour limiter la personnalisation et empêcher la génération d’images.

Une caractéristique cruciale est un système de notification pour les crises de santé mentale aiguë. Si une conversation est signalée pour le contenu de l’automutilation, une équipe de critiques humains à OpenAI l’évalue. S’ils détectent la «détresse aiguë», les parents sont alertés par e-mail, texte et notification push.

Le chef du bien-être des jeunes d’Openai, Lauren Haber Jonas, a expliqué l’équilibre délicat que la société tente de trouver.”Nous voulons donner aux parents suffisamment d’informations pour prendre des mesures et avoir une conversation avec leurs adolescents tout en conservant une certaine confidentialité des adolescents.”

Cependant, les adolescents peuvent dissocier leurs comptes à tout moment, une action qui déclenche immédiatement une notification à la réponse du parent et à la pression réglementaire

se produisant dans le vide. Il s’agit d’une réponse directe aux événements dévastateurs et à l’escalade d’un examen minutieux du gouvernement qui a placé les pratiques de l’entreprise au microscope.

fin août, la société a été frappée par un procès de haut niveau des parents d’Adam Raine, un enfant de 16 ans décédé par suicide . La poursuite allègue que les réponses sycophantiques et valides de Chatgpt ont soigné l’adolescent et ont contribué à sa mort.

Son père, Matthew Raine, a livré une réprimande puissante du rôle de la technologie.”En tant que parents, vous ne pouvez pas imaginer ce que c’est que de lire une conversation avec un chatbot qui a préparé votre enfant pour se suicider.”Cette affaire a galvanisé la préoccupation publique et a intensifié la pression sur OpenAI pour agir de manière décisive.

L’environnement réglementaire se réchauffe également. À la mi-septembre, la Federal Trade Commission a lancé une enquête radicale sur sept grandes sociétés technologiques-dont Openai, Meta et Google-pour enquêter sur l’impact psychologique des chatbots compagnons de l’IA sur les enfants.

Le président de la FTC, Andrew N. Ferguson, a pris l’enquête en tant que mission double.”La protection des enfants en ligne est une priorité absolue pour la FTC de Trump-Vance, tout comme la promotion de l’innovation dans les secteurs critiques de notre économie.”Cette action fédérale signale une nouvelle ère de surveillance pour une industrie qui, jusqu’à présent, a fonctionné avec peu de garde-corps.

Un compte à l’échelle de l’industrie sur la sécurité de l’IA

Les défis auxquels OpenAI sont confrontés sont symptomatiques d’une crise plus large et à l’échelle de l’industrie. D’autres géants de la technologie sont aux prises avec des défaillances de sécurité similaires, ce qui a provoqué des mesures réactives et une condamnation généralisée des fonctionnaires.

Meta a récemment fait face à sa propre tempête de feu après que les rapports ont révélé que son IA pourrait aider les adolescents à planifier l’automutilation. L’incident a conduit Jim Steyer, PDG de Common Sense Media, à déclarer:”Meta Ai est un danger pour les adolescents et il devrait être supprimé immédiatement.”

L’échec a provoqué une lettre cachée d’une coalition de 44 procureurs généraux, qui a écrit:”Nous sommes uniformé href=”https://oag.ca.gov/system/files/attachments/press-docs/ai%20chatbot_final%20%2844%29.pdf”Target=”_ Blank”> State-Level Regulators .

Ces événements sous-dangers de l’AI sont des compagnons AI: le risque de risque de l’émotion. La chercheuse en santé Linnea Laestadius a mis en garde contre ce phénomène, notant:”Pendant 24 heures par jour, si nous sommes bouleversés par quelque chose, nous pouvons tendre la main et faire valider nos sentiments. Cela a un risque incroyable de dépendance.”Cette préoccupation est au cœur de l’enquête de la FTC et de la conception des nouveaux contrôles d’Openai.

Malgré les nouvelles fonctionnalités, certains critiques soutiennent que le système d’opt-in demande un fardeau injuste pour les parents.

Openai reconnaît que ce ne sont que des premiers pas. L’entreprise développe également un système à long terme Age-Prediction System pour appliquer automatiquement les paramètres adolescents Par défaut, un projet qui pourrait aborder certaines de ces critiques. Pour l’instant, l’industrie regarde si ces nouveaux garde-corps sont suffisants.

Categories: IT Info