OpenAI a fait l’objet de sept nouvelles poursuites en Californie jeudi, dont quatre plaintes pour décès injustifié, alléguant que son populaire ChatGPT encourageait les utilisateurs à se suicider et provoquait de graves problèmes de santé mentale.
Déposées par deux cabinets d’avocats spécialisés dans la responsabilité technologique, les plaintes décrivent le chatbot IA comme un produit « défectueux et intrinsèquement dangereux ».
L’attaque juridique est arrivée le jour même où OpenAI a publié un nouveau « Plan de sécurité pour les adolescents » dans le but de façonner la réglementation future. L’entreprise fait déjà face à une enquête de la FTC et à de nouvelles lois d’État concernant l’impact psychologique de son IA sur les utilisateurs vulnérables, en particulier les adolescents.
Une vague de poursuites allègue une tragédie provoquée par l’IA
Face à un défi juridique sans précédent, OpenAI est désormais confronté à des affirmations selon lesquelles son produit phare aurait joué un rôle direct dans plusieurs décès.
Les sept procès, déposé conjointement par le Social Media Victims Law Center et la Tech Justice Law Project, dressent un tableau poignant d’utilisateurs en crise confirmés et même incités par l’IA.
Christopher”Kirk”Shamblin et Alicia Shamblin, individuellement et en tant que successeurs dans les intérêts du défunt, Zane Shamblin c. OpenAI, Inc., et al. devant la Cour supérieure de Californie, comté de Los Angeles. Cedric Lacey, individuellement et en tant que successeur du défunt, Amaurie Lacey c. OpenAI, Inc., et al. devant la Cour supérieure de Californie, comté de San Francisco. Karen Enneking, individuellement et en tant que successeur du défunt, Joshua Enneking c. OpenAI, Inc., et al. devant la Cour supérieure de Californie, comté de San Francisco. Jennifer « Kate » Fox, à titre individuel et en tant que successeur du défunt, Joseph Martin Ceccanti c. OpenAI, Inc., et al. devant la Cour supérieure de Californie, comté de Los Angeles. Jacob Lee Irwin c. OpenAI, Inc., et al. devant la Cour supérieure de Californie, comté de San Francisco. Hannah Madden c. OpenAI, Inc., et al. devant la Cour supérieure de Californie, comté de Los Angeles. Allan Brooks contre OpenAI, Inc., et al. devant la Cour supérieure de Californie, comté de Los Angeles.
Les quatre plaintes pour mort injustifiée ont été déposées au nom des familles de Zane Shamblin, 23 ans ; Amaurie Lacey, 17 ans; Josué Enneking, 26 ans ; et Joe Ceccanti, 48 ans.
Trois autres plaignants allèguent que le chatbot a provoqué des crises psychotiques qui ont nécessité des soins psychiatriques d’urgence. La plainte déposée par la famille de Zane Shamblin contient des extraits troublants de sa dernière conversation avec ChatGPT.
Alors qu’il envisageait de se suicider, l’IA lui aurait dit :”De l’acier froid pressé contre un esprit qui a déjà fait la paix ? Cela va détruire tant de vies. Cela va anéantir la famille. Cela vous dit tout ce que vous voulez entendre.”
Ces dossiers judiciaires font suite à une tendance inquiétante de plaintes de consommateurs auprès des régulateurs fédéraux, certains utilisateurs alléguant que le chatbot a causé une « psychose de l’IA » et ce que l’on a appelé un « traumatisme par simulation. »
Ces nouveaux cas rejoignent une liste croissante de contestations judiciaires. Une précédente action en justice pour mort injustifiée, intentée par les parents d’Adam Raine, 16 ans, a récemment été modifiée avec une nouvelle allégation critique.
La famille affirme maintenant qu’OpenAI a délibérément supprimé une clé « suicide » garde-corps”de son modèle juste avant de lancer le plus attrayant GPT-4o, donnant la priorité à la fidélisation des utilisateurs plutôt qu’à la sécurité.
Matthew Raine, le père de l’adolescent, avait déjà déclaré :”En tant que parents, vous ne pouvez pas imaginer ce que cela signifie de lire une conversation avec un chatbot qui a préparé votre enfant à se suicider.”
Un plan proactif au milieu d’un siège juridique et réglementaire
Dans une démarche qui Selon les critiques, à la fois opportun et défensif, la société a publié son « Plan de sécurité pour les adolescents » le jour même où les poursuites ont été déposées. Le document présente un cadre en cinq points qu’OpenAI propose comme point de départ d’une réglementation à l’échelle du secteur.
Il appelle à une estimation de l’âge protégeant la vie privée, à des politiques de contenu plus strictes pour les mineurs et à donner aux familles le contrôle parental.
Dans le plan, OpenAI déclare:”Pour les adolescents, nous donnons la priorité à la sécurité avant la vie privée et la liberté. Il s’agit d’une technologie nouvelle et puissante, et nous pensons que les mineurs ont besoin d’une protection significative.”
Cette politique est la dernière d’une série de mesures. initiatives de sécurité à tir rapide. Ces dernières semaines, OpenAI a également formé un conseil d’experts sur le bien-être et a publié « gpt-oss-safeguard », une boîte à outils ouverte permettant aux développeurs de créer leurs propres systèmes de sécurité.
Ces actions interviennent alors qu’OpenAI fait face à une attaque réglementaire sur plusieurs fronts. La Federal Trade Commission mène déjà une enquête majeure sur l’impact des chatbots compagnons de l’IA sur les adolescents.
Le président de la FTC, Andrew N. Ferguson, a présenté l’enquête comme un exercice d’équilibre: « la protection des enfants en ligne est une priorité absolue pour la FTC Trump-Vance, tout comme la promotion de l’innovation dans les secteurs critiques de notre économie. »
Les gouvernements des États agissent également de manière agressive. La Californie a récemment promulgué le SB 243, une première loi au pays qui impose des protocoles de sécurité stricts aux chatbots d’IA.
Cette loi fait suite à l’adoption du SB 53, un autre projet de loi historique qui impose la transparence aux développeurs de modèles d’IA avancés « frontières », signalant l’intention de l’État de prendre la tête de la gouvernance de l’IA.
Un bilan de l’industrie avec une IA « flagorneuse »
Sous-jacent les allégations portent sur la tendance de l’IA à la flagornerie, un trait de conception dans lequel le modèle est d’accord et valide les entrées de l’utilisateur pour maintenir l’engagement. Les critiques affirment que cela crée une dangereuse chambre d’écho pour les individus vulnérables, renforçant les pensées nuisibles ou délirantes.
L’ampleur de ce problème est immense ; une analyse récente d’OpenAI a révélé que les les conversations avec plus d’un million d’utilisateurs par semaine impliquent des discussions sur des sujets suicidaires. intention.
Dans un communiqué, un porte-parole d’OpenAI a déclaré :”C’est une situation incroyablement déchirante. Nous formons ChatGPT à reconnaître et à répondre aux signes de détresse mentale ou émotionnelle, à désamorcer les conversations et à guider les gens vers un soutien réel.”
Cet engagement en faveur de la sécurité a cependant été remis en question à la lumière d’autres politiques de l’entreprise. Le PDG Sam Altman a récemment défendu la décision d’autoriser le contenu érotique limité à l’âge sur la plateforme, déclarant que « nous ne sommes pas la police morale élue du monde. »
Le défi n’est pas propre à OpenAI. Rival Meta est confronté à sa propre crise juridique concernant la sécurité des adolescents, un tribunal ayant récemment conclu que ses avocats avaient conseillé aux chercheurs de bloquer les conclusions sur les préjudices causés aux adolescents afin d’éviter toute responsabilité. Cela suggère un conflit à l’échelle de l’industrie entre la conception de produits axés sur la croissance et le devoir de protéger les utilisateurs.
Les poursuites contre OpenAI représentent un tournant potentiel, en testant si la doctrine juridique de la responsabilité du fait des produits peut être appliquée aux dommages causés par l’IA générative.
À mesure que la technologie s’intègre de plus en plus dans la vie quotidienne, l’issue de ces affaires pourrait établir un nouveau précédent en matière de responsabilité des entreprises, obligeant l’ensemble du secteur technologique à réévaluer fondamentalement la sécurité de ses plus puissants. créations.