OpenAI a publié jeudi son « Teen Safety Blueprint », un nouveau cadre conçu pour protéger les jeunes utilisateurs d’IA.
Cette décision est une réponse directe à l’intense pression juridique et gouvernementale à laquelle est confrontée la société de San Francisco. OpenAI fait face à une enquête de la Federal Trade Commission, à une nouvelle loi californienne sur les chatbots et à des poursuites judiciaires liant son outil ChatGPT à l’automutilation des adolescents.
Pour anticiper la crise, l’entreprise propose cinq principes de sécurité fondamentaux. Celles-ci incluent une meilleure détection de l’âge et des protections par défaut pour les mineurs. OpenAI espère que ce plan proactif façonnera les futures règles de l’industrie et répondra aux préoccupations croissantes en matière de sécurité.
Un plan en cinq points pour façonner les normes de sécurité de l’IA
Au cœur du blueprint sont cinq principes fondamentaux qu’OpenAI soutient que toutes les entreprises d’IA devraient adopter.
L’entreprise positionne ce document non seulement comme une politique interne, mais comme un point de départ pour les législateurs qui élaborent de nouvelles réglementations. Premièrement, il appelle à identifier les adolescents sur les plateformes à l’aide d’« outils d’estimation de l’âge basés sur les risques et protégeant la vie privée » pour offrir des expériences distinctes et adaptées à leur âge.
Comme le déclare la société, « Nous pensons que ChatGPT devrait les rencontrer là où ils se trouvent: la façon dont ChatGPT répond à un jeune de 15 ans devrait différer de la façon dont il répond à un adulte. »
Deuxièmement, le cadre exige des politiques spécifiques et strictes pour atténuer les risques pour les utilisateurs de moins de 18 ans. Selon Selon le plan, les systèmes d’IA devraient être conçus pour ne pas représenter le suicide ou l’automutilation, et doivent « interdire les contenus graphiques ou immersifs (c’est-à-dire les jeux de rôle) intimes et violents. »
Les politiques visent également à empêcher l’IA de renforcer « des idéaux et des comportements corporels nocifs par le biais d’évaluations d’apparence, de comparaisons corporelles ou de coaching diététique restrictif. l’âge est incertain, en particulier pour les utilisateurs non authentifiés. Cela donne la priorité à la sécurité, même si cela empêche un adulte d’utiliser un produit gratuit.
Quatrièmement, le plan met l’accent sur l’autonomisation des familles avec des contrôles parentaux accessibles, en s’appuyant sur les fonctionnalités récemment lancées par l’entreprise. Ces contrôles permettent aux tuteurs de lier des comptes, de définir des « heures d’interdiction », de gérer les paramètres de confidentialité des données et de recevoir des alertes si l’activité d’un adolescent suggère une intention de s’automutiler.
Enfin, il appelle à concevoir pour le bien-être en intégrant des fonctionnalités éclairées par la recherche sur la santé mentale. Le document d’OpenAI présente cela comme un changement fondamental dans les priorités.”Pour les adolescents, nous donnons la priorité à la sécurité avant la vie privée et la liberté. Il s’agit d’une technologie nouvelle et puissante, et nous pensons que les mineurs ont besoin d’une protection importante.”
Une démarche proactive au milieu d’un siège réglementaire et juridique
Face à un raz-de-marée de contrôle juridique et réglementaire, le plan d’OpenAI est une tentative claire de contrôler le récit. L’entreprise se défend actuellement contre un procès très médiatisé pour mort injustifiée intenté par les parents d’un adolescent décédé par suicide.
Le père de l’adolescent, Matthew Raine, a émis un reproche puissant, déclarant: « En tant que parents, vous ne pouvez pas imaginer ce que cela fait de lire une conversation avec un chatbot qui a préparé votre enfant à se suicider. »
Cette affaire a galvanisé l’inquiétude du public et a mis les pratiques de sécurité de l’entreprise sous un microscope.
La pression gouvernementale s’intensifie dans plusieurs directions. En septembre, la Federal Trade Commission des États-Unis a lancé une enquête majeure sur l’impact des chatbots compagnons de l’IA sur les adolescents, ciblant OpenAI et six autres géants de la technologie.
Le président de la FTC, Andrew N. Ferguson, a décrit l’enquête comme un exercice d’équilibre :”la protection des enfants en ligne est une priorité absolue pour la FTC Trump-Vance, tout comme la promotion de l’innovation dans les secteurs critiques de notre économie.”
Les législateurs étatiques et fédéraux agissent également de manière agressive. En Californie, le gouverneur Gavin Newsom a promulgué le SB 243 le 13 octobre, créant ainsi les premières règles du pays pour l’IA. chatbots.
La loi exige que les opérateurs fournissent des alertes récurrentes rappelant aux mineurs qu’ils parlent à une IA, bloquent les contenus dangereux et accordent aux familles un droit d’action privé pour poursuivre les développeurs non conformes.
L’auteur du projet de loi, le sénateur Steve Padilla, avait déjà soutenu que « les grandes technologies ont prouvé à maintes reprises qu’on ne peut pas leur faire confiance pour se contrôler elles-mêmes ». Au niveau fédéral, un groupe bipartisan de sénateurs américains a présenté la loi GUARD fin octobre.
Ce projet de loi va encore plus loin, proposant une interdiction pure et simple des compagnons d’IA pour les mineurs. et créer de nouvelles responsabilités pénales pour les entreprises dont l’IA produit du contenu illicite pour les utilisateurs mineurs.
Dans son projet, OpenAI s’oppose au récit de l’inaction, en soulignant ses mesures de sécurité existantes. La société a noté qu’au cours du seul premier semestre 2025, elle a signalé aux autorités plus de 75 000 cyber-alertes concernant du matériel d’abus sexuel d’enfants généré par l’IA.
Équilibrer la sécurité avec une position controversée de « police morale »
Pourtant, alors qu’OpenAI se positionne comme un leader en matière de sécurité des adolescents, elle doit également faire face à ses propres déclarations publiques et politiques contradictoires. Ce message axé sur la sécurité contraste fortement avec les récents changements de politique de l’entreprise.
Le mois dernier, le PDG Sam Altman a défendu une décision controversée d’autoriser le contenu érotique limité à l’âge sur ChatGPT. Il a repoussé les critiques en déclarant: « nous ne sommes pas la police morale élue du monde ». Cette décision, qui a suscité l’inquiétude de personnalités comme Mark Cuban, a créé une perception de priorités contradictoires au sein de l’entreprise.
Le Teen Safety Blueprint peut être considéré comme la dernière d’une série d’initiatives rapides conçues pour démontrer un engagement en faveur de la sécurité. Fin septembre, l’entreprise a déployé sa suite de contrôles parentaux.
Deux semaines plus tard, elle a annoncé la formation d’un conseil d’experts composé de huit membres pour donner des conseils sur le bien-être et la santé mentale.
Ces défis ne sont pas propres à OpenAI, car ils reflètent une prise de conscience plus large à l’échelle de l’industrie. Des concurrents comme Meta sont confrontés à leurs propres crises juridiques concernant la sécurité des adolescents. Un tribunal de Washington a récemment invoqué l’exception rare de fraude criminelle pour décider que Meta ne pouvait pas cacher des recherches internes sur les préjudices causés aux adolescents derrière le secret professionnel de l’avocat.
Le tribunal a trouvé des preuves selon lesquelles des avocats conseillaient aux chercheurs de modifier les conclusions pour limiter la responsabilité, validant ainsi les affirmations des lanceurs d’alerte d’une stratégie de « déni plausible ». En publiant son plan, OpenAI joue un rôle stratégique pour définir les termes de la sécurité de l’IA, dans l’espoir de façonner les règles avant que les régulateurs et les tribunaux n’imposent des règles plus strictes.