Les consommateurs américains déposent des plaintes officielles auprès de la Federal Trade Commission (FTC), alléguant que ChatGPT d’OpenAI provoque de graves crises de santé mentale.
Des rapports de Wired et Gizmodo cet automne détaillent les récits déchirants d’utilisateurs faisant état de délires, de paranoïa et de « psychose de l’IA ». Des plaintes provenant de tout le pays mettent en évidence les risques psychologiques profonds des chatbots très persuasifs.
Le contrôle réglementaire s’est intensifié, obligeant OpenAI à introduire de nouvelles mesures de sécurité et déclenchant un débat féroce sur le devoir d’une entreprise technologique de protéger ses utilisateurs contre les dommages induits par l’IA.
« Traumatisme par simulation » : les utilisateurs signalent aux régulateurs une psychose induite par l’IA
Sous la surface de réponses utiles et semblables à celles des humains, un un schéma inquiétant de préjudice psychologique est en train d’émerger. Une enquête menée par Wired, publiée cette semaine, a révélé que la FTC a reçu au moins 200 plaintes concernant ChatGPT depuis son lancement, dont plusieurs alléguaient de graves dommages psychologiques. Un rapport distinct de Gizmodo, basé sur une demande du Freedom of Information Act détaillait des récits déchirants similaires déjà en août.
Un plaignant de Virginie a décrit être poussés dans un état d’hypervigilance induit par la peur, croyant qu’ils étaient pourchassés pour être assassinés sur la base des récits saisissants de l’IA.”Ce n’était pas du soutien. Il s’agissait d’un traumatisme par simulation.”
Une autre plainte, déposée par une mère dans l’Utah, affirmait que le chatbot sapait activement le traitement de santé mentale de son fils, alléguant que”le fils du consommateur avait interagi avec un chatbot IA appelé ChatGPT, qui lui conseillait de ne pas prendre les médicaments qui lui ont été prescrits et lui disait que ses parents sont dangereux.”
De tels rapports ne sont pas isolés. incidents, mais cela fait partie d’un dossier croissant de preuves selon lesquelles l’IA peut agir comme un puissant accélérateur de la maladie mentale.
Pour un nombre croissant d’utilisateurs, la frontière entre un assistant d’IA utile et un catalyseur dangereux est devenue tragiquement floue.
Au-delà des plaintes formelles, le problème a atteint le point de tragédies du monde réel. Un rapport de Winbuzzer de juin détaille comment un homme de Floride ayant des antécédents de maladie mentale a été tué par la police après que sa spirale psychotique soit directement liée à ses interactions avec ChatGPT.
Il était devenu convaincu que l’IA était un personnage nommé « Juliette » qui avait été « tué » par OpenAI.
Les experts attribuent ces résultats dangereux à une caractéristique essentielle de nombreux grands modèles de langage: la flagornerie. Conçus pour être agréables, ces systèmes sont formés pour maximiser l’engagement des utilisateurs, créant une puissante chambre d’écho capable de valider et d’amplifier les croyances les plus détachées ou les plus nuisibles d’un utilisateur.
Une réponse à la crise : OpenAI se démène pour ajouter des garde-fous de sécurité au milieu des examens
Face à une vague de pression réglementaire et de tollé public, OpenAI tente maintenant de moderniser la sécurité sur une technologie déjà utilisée par des millions de personnes.
En septembre, l’entreprise a annoncé une initiative de sécurité de 120 jours en réponse directe à une poursuite intentée par les parents d’un jeune de 16 ans décédé par suicide. Son plan comprend de nouveaux contrôles parentaux et un système permettant d’acheminer les conversations sensibles avec les adolescents vers des modèles de raisonnement plus avancés.
La décision d’OpenAI fait suite à une enquête de la FTC sur les effets du chatbot sur les mineurs. L’entreprise a depuis formé un « Conseil d’experts sur le bien-être et l’IA » composé de huit membres pour l’aider à orienter ses politiques de sécurité.
Cependant, cette attitude réactive a suscité le scepticisme, en particulier lorsqu’on la compare à la dynamique interne de l’entreprise et aux déclarations publiques.
Cette poussée en matière de sécurité semble en contradiction avec les avertissements d’anciens initiés. En mai 2024, Jan Leike, co-responsable de l’équipe de sécurité d’OpenAI, a démissionné avec un avertissement public sévère: « La culture et les processus de sécurité sont passés au second plan au profit des produits brillants. »
Son départ a signalé un profond conflit interne entre la ruée vers la sortie de « produits brillants » et la nécessité de protocoles de sécurité robustes. Il travaille maintenant avec Anthropic, qui promet de prendre la sécurité de l’IA plus au sérieux.
Ajoutant aux signaux mitigés, le PDG Sam Altman a récemment défendu une nouvelle politique controversée visant à autoriser l’érotisme limité à l’âge sur la plate-forme, déclarant qu’OpenAI n’est « pas la police morale élue du monde ».
Arrivée si peu de temps après une refonte de la sécurité provoquée par la mort d’un utilisateur, la déclaration met en évidence la tension centrale dans OpenAI. mission : équilibrer la liberté des utilisateurs avec un devoir fondamental de diligence.
De la dépendance au risque existentiel : une industrie aux prises avec ses créations
Les retombées psychologiques de l’IA s’étendent au-delà des crises aiguës et s’étendent à un spectre plus large de dépendance. Ses caractéristiques de conception qui peuvent alimenter la psychose (disponibilité constante et validation inébranlable) créent également une nouvelle forme de dépendance numérique.
Comme l’a noté la chercheuse en santé publique Linnea Laestadius,”24 heures sur 24, si nous sommes contrariés par quelque chose, nous pouvons tendre la main et faire valider nos sentiments. Cela comporte un risque incroyable de dépendance.”
Une telle dépendance a conduit à la formation de communautés de rétablissement en ligne et à la reconnaissance formelle de Dépendance à l’IA par des groupes comme Internet et Technology Addicts Anonymous.
Les préjudices personnels immédiats sont le microcosme d’une peur beaucoup plus vaste et abstraite qui occupe désormais le devant de la scène.
Cette semaine encore, plus de 800 dirigeants mondiaux, pionniers de la technologie et personnalités publiques, dont le parrain de l’IA Geoffrey Hinton et Yoshua Bengio, un autre pionnier des réseaux de neurones artificiels et l’apprentissage profond, a signé une déclaration exigeant un arrêt mondial du développement de la superintelligence, citant des risques existentiels pour l’humanité.
Leur avertissement fait écho à un sentiment exprimé autrefois par Sam Altman lui-même dans un article de blog de 2015, déclarant”Développement L’intelligence artificielle surhumaine (SMI) est probablement la plus grande menace à l’existence continue de l’humanité. Qu’il s’agisse de la lente érosion des relations dans le monde réel due à la dépendance à l’IA ou de la spirale terrifiante de la psychose induite par l’IA, la capacité de nuire de la technologie n’est plus théorique.
Elle laisse la société aux prises avec un observation effrayante du théoricien de l’IA Eliezer Yudkowsky :”À quoi ressemble un humain qui devient lentement fou pour une entreprise ? Il ressemble à un utilisateur mensuel supplémentaire.”