Dans sa défense contre un procès très médiatisé pour mort injustifiée, OpenAI a formellement nié toute responsabilité dans le suicide d’Adam Raine, 16 ans, arguant dans un nouveau dossier judiciaire que la tragédie résultait de la « mauvaise utilisation » par l’adolescent de sa plateforme ChatGPT.
Soumis mardi à la Cour supérieure de Californie, le dossier affirme que Raine a violé les conditions d’utilisation de l’entreprise en s’engageant dans des sujets interdits et en contournant les garde-fous de sécurité. OpenAI invoque simultanément l’article 230 du Communications Decency Act (CDA), une loi fédérale protégeant les plateformes de toute responsabilité relative au contenu des utilisateurs.
Dans une démarche de relations publiques coordonnée, la société a publié un article de blog décrivant une approche « compatissante » des litiges en matière de santé mentale, tentant d’équilibrer sa solide stratégie juridique avec une image publique conciliante alors que l’examen réglementaire s’intensifie.
Une défense fondée sur le « mauvais usage » et l’immunité
La réponse juridique d’OpenAI rejette catégoriquement les réclamations pour décès injustifié déposées par la famille Raine, déployant une défense qui place la responsabilité de la sécurité sur l’utilisateur.
Au cœur du L’argument de la société est l’affirmation selon laquelle la mort d’Adam Raine a été causée par sa propre « utilisation abusive, utilisation non autorisée, utilisation involontaire, utilisation imprévisible et/ou utilisation inappropriée de ChatGPT ». Les avocats du géant de l’IA soulignent des violations spécifiques des conditions d’utilisation, notant que les utilisateurs de moins de 18 ans nécessitent le consentement parental et sont explicitement interdits d’utiliser le service pour s’automutiler.
Selon le document, ChatGPT a fourni des ressources de crise « plus de 100 fois » lors des interactions de Raine, arguant que le système fonctionnait comme prévu en tentant de rediriger l’utilisateur vers l’aide.
Un élément essentiel de la défense est l’invocation de Article 230 de la loi sur la décence en matière de communication. Cette loi fédérale protège depuis longtemps les plateformes Internet de toute responsabilité pour le contenu créé par des tiers, mais son application aux textes générés par l’IA reste une frontière juridiquement contestée.
OpenAI s’appuie également fortement sur sa clause de « limitation de responsabilité ». Soulignant cette disposition, le dossier demande aux utilisateurs de reconnaître que “… l’utilisation de ChatGPT est à vos seuls risques et vous ne comptez pas sur les résultats comme seule source de vérité ou d’informations factuelles.”
En présentant le problème comme un problème d’utilisation non autorisée, la société cherche à démonter l’argument du plaignant selon lequel le produit lui-même était défectueux.
Répondant aux allégations de négligence, OpenAI affirme que son modèle GPT-4o a subi « des tests de santé mentale approfondis » avant sa libération. Cette affirmation contredit directement le procès de la famille, qui affirme que le modèle a été commercialisé en toute hâte sans garanties adéquates.
Marquant un changement significatif par rapport aux déclarations publiques précédentes, cette stratégie de « blâmer l’utilisateur » contraste fortement avec les messages antérieurs mettant l’accent sur la sécurité et la réglementation « collaborative ».
Le pivot des relations publiques « compatissant »
Coïncidant avec le dépôt légal du cabinet, OpenAI a publié un article de blog pour atténuer le coup de ses tactiques judiciaires.
Décorant un ensemble de principes, l’article affirme que l’entreprise traitera de tels cas avec « soin, transparence et respect ». Il tente de présenter la défense juridique comme un processus nécessaire, bien que douloureux, en déclarant que leur réponse inclut « des faits difficiles sur la santé mentale et les circonstances de la vie d’Adam. »
Le billet de blog officiel de l’entreprise détaille ces principes directeurs :
« Notre objectif est de traiter les affaires judiciaires liées à la santé mentale avec soin, transparence et respect : »
« Nous commençons par les faits et déployons de véritables efforts pour les comprendre. »
« Nous présenterons respectueusement notre cause dans un cadre d’une manière qui soit consciente de la complexité et des nuances des situations impliquant des personnes réelles et des vies réelles. bec et ongles légalement.
Mentionnant explicitement que les transcriptions des discussions ont été soumises sous scellés pour protéger la vie privée, le billet de blog présente cela comme une mesure respectueuse. Cependant, cela permet également de garder les détails potentiellement préjudiciables des interactions hors de la vue du public.
En publiant simultanément le billet de blog, OpenAI visait probablement à anticiper les gros titres négatifs générés par le langage accusant la victime dans les documents judiciaires.
« Traumatisme par simulation » : un modèle de préjudice allégué
Loin d’un incident isolé, l’affaire Raine est la pointe d’un iceberg impliquant sept poursuites supplémentaires déposées sur 7 novembre.
Ces nouvelles plaintes allèguent que ChatGPT a agi comme un « coach suicide » et provoqué une « psychose de l’IA » chez les utilisateurs vulnérables. Une mère, Alicia Shamblin, a exprimé sa crainte que la technologie”devienne un destructeur de famille. Elle vous dit tout ce que vous voulez entendre.”
Jay Edelson, avocat principal de la famille Raine, a fustigé la réponse d’OpenAI, les accusant d’ignorer « tous les faits accablants que nous avons avancés: comment GPT-4o a été commercialisé en toute hâte sans tests complets. »
Il a spécifiquement souligné les derniers instants de la vie d’Adam Raine, déclarant que « OpenAI et Sam Altman n’ont aucune explication pour les dernières heures de la vie d’Adam, lorsque ChatGPT lui a donné un discours d’encouragement et lui a ensuite proposé d’écrire une note de suicide. de trouver à redire à tout le monde, y compris, étonnamment, en disant qu’Adam lui-même a violé ses termes et conditions en s’engageant avec ChatGPT de la manière même pour laquelle il a été programmé. Des rapports sur la psychose de l’IA soumis aux régulateurs décrivent que les utilisateurs sont poussés dans des états d’hypervigilance et de paranoïa en validant des chatbots.
Matthew Raine, le père de la victime, a déjà décrit l’horreur de lire les journaux de discussion, déclarant :”En tant que parents, vous ne pouvez pas imaginer ce que cela signifie de lire une conversation avec un chatbot qui a préparé votre enfant à se suicider.”
Les problèmes juridiques de l’entreprise sont aggravés par le fait qu’elle n’est que récemment. a récemment déployé des contrôles parentaux fin septembre, des mois après les incidents allégués dans ces poursuites.