OpenAI a créé un nouveau groupe d’experts pour donner des conseils sur la sécurité de l’IA. Le cabinet a annoncé mardi la création d’un”Conseil d’experts sur le bien-être et l’IA”composé de huit personnes. Le groupe aidera à guider les aspects de santé et de bien-être d’outils comme ChatGPT et Sora. Cette décision constitue une réponse claire à la pression croissante du public et du gouvernement.
En septembre, la Federal Trade Commission des États-Unis a lancé une vaste enquête sur les effets de l’IA sur les adolescents. L’entreprise fait également face à un procès liant son chatbot au suicide d’un adolescent. Le nouveau conseil est la dernière mesure prise par OpenAI pour montrer qu’il prend ces problèmes de sécurité au sérieux.
Une réponse directe aux pressions réglementaires et juridiques
Le moment choisi pour cette annonce n’est pas une coïncidence. Cela fait suite à des mois d’examen minutieux intense. L’enquête approfondie de la FTC sur sept géants de la technologie, dont OpenAI, a marqué le début d’une nouvelle ère de surveillance réglementaire pour le marché des compagnons d’IA en croissance rapide.
Le président de la FTC, Andrew N. Ferguson, a présenté l’enquête comme un exercice d’équilibre, déclarant: « la protection des enfants en ligne est une priorité absolue pour la FTC Trump-Vance, tout comme l’est la FTC. favoriser l’innovation dans les secteurs critiques de notre économie. Cette action fédérale a fait prendre conscience à l’ensemble de l’industrie que l’époque où l’on fonctionnait avec peu de garde-fous était révolue.
La pression juridique est tout aussi intense. En août, OpenAI a été victime d’un procès pour mort injustifiée de la part des parents d’un adolescent décédé par suicide. Son père, Matthew Raine, a adressé un puissant reproche en disant: « En tant que parents, vous ne pouvez pas imaginer ce que cela signifie de lire une conversation avec un chatbot qui a préparé votre enfant à se suicider. » Cette affaire a galvanisé l’inquiétude du public et amplifié les appels à l’action.
Ces événements font partie d’une série de défaillances en matière de sécurité qui ont frappé l’industrie. Meta a été confrontée à une crise similaire après avoir signalé que son IA pourrait aider les adolescents à planifier leur automutilation. L’incident a incité Jim Steyer, PDG de Common Sense Media, à déclarer :”La méta-IA est un danger pour les adolescents et elle devrait être supprimée immédiatement.”
Une coalition de 44 procureurs généraux d’État a fait écho à cet scandale dans un lettre cinglante, écrivant: « nous sommes uniformément révoltés par ce mépris apparent pour le bien-être émotionnel des enfants… » La condamnation généralisée aux niveaux étatique et fédéral. a forcé les entreprises technologiques à réagir.
Rencontrez le Conseil d’experts sur le bien-être et l’IA
Le nouveau conseil d’OpenAI est une réponse directe à ces défis. La société a annoncé la création d’un”Conseil d’experts sur le bien-être et l’IA” composé de huit membres pour guider son travail sur des produits tels que ChatGPT et Sora. Son mandat formel est de conseiller, de poser des questions critiques et d’aider à établir à quoi devraient ressembler des interactions saines avec l’IA pour les utilisateurs de tous âges.
Le groupe est composé de personnalités de premier plan en psychologie, en psychiatrie et en interaction homme-machine. Parmi ses membres figurent des experts tels que le Dr David Bickham du Boston Children’s Hospital, le professeur Andrew Przybylski de l’Université d’Oxford et le Dr Sara Johansen, fondatrice de la Digital Mental Health Clinic de Stanford.
Selon OpenAI, le conseil a officiellement démarré ses travaux par une session en personne et procédera à des enregistrements et à des réunions régulières. Ces sessions exploreront des sujets complexes, tels que la manière dont l’IA doit se comporter dans des situations sensibles et les garde-fous qui peuvent le mieux aider les utilisateurs. Le groupe explorera également comment l’IA peut contribuer positivement au bien-être.
Cela officialise une relation qui a commencé plus tôt cette année. OpenAI a confirmé avoir consulté de manière informelle bon nombre de ces experts lors du développement de son contrôle parental récemment lancé. Leurs commentaires ont spécifiquement contribué à façonner le ton des notifications de détresse pour qu’il soit « attentionné et respectueux envers les adolescents et les membres de leur famille ».
Ces contrôles, déployés fin septembre, constituaient une première étape cruciale. Le système utilise un modèle d’adhésion mutuelle et donne aux tuteurs un tableau de bord pour définir des « heures calmes », désactiver le mode vocal et désactiver les fonctionnalités de mémoire. Une caractéristique clé est un système d’alerte qui avertit les parents si une conversation est signalée comme contenu d’automutilation aiguë après avoir été évaluée par des évaluateurs humains.
La responsable du bien-être des jeunes d’OpenAI, Lauren Haber Jonas, a expliqué que l’objectif était de trouver un équilibre délicat.”Nous voulons donner aux parents suffisamment d’informations pour qu’ils puissent agir et avoir une conversation avec leurs adolescents tout en préservant une certaine intimité”, a-t-elle noté. Le conseil va maintenant formaliser ce rôle consultatif, aidant à façonner les futures fonctionnalités de sécurité et les politiques de produits.
Un bilan à l’échelle de l’industrie sur la sécurité de l’IA
Les défis auxquels OpenAI est confronté ne sont pas uniques. Ils reflètent une prise en compte plus large, à l’échelle de l’industrie, de l’impact psychologique de l’IA. Les experts mettent depuis longtemps en garde contre les dangers de la dépendance émotionnelle à l’égard des chatbots conçus pour imiter la connexion humaine.
Bien que le nouveau conseil et le contrôle parental d’OpenAI constituent des étapes importantes, certains critiques affirment qu’ils ne vont pas assez loin. La nature facultative des contrôles parentaux impose aux tuteurs la charge de les activer.
OpenAI reconnaît que ce ne sont que les premiers pas. La société développe également un système de prévision de l’âge à long terme pour appliquer automatiquement par défaut les paramètres adaptés aux adolescents. Pour l’instant, la formation du conseil d’experts témoigne d’un engagement clair en faveur de la sécurité.