OpenAI se vio afectado por siete nuevas demandas en California el jueves, incluidas cuatro demandas por muerte por negligencia, alegando que su popular ChatGPT animaba a los usuarios a suicidarse y provocaba graves crisis de salud mental.

Presentadas por dos bufetes de abogados de responsabilidad tecnológica, las quejas describen el chatbot de IA como un producto”defectuoso e inherentemente peligroso”.

El asalto legal llegó el mismo día que OpenAI lanzó un nuevo”Plan de seguridad para adolescentes”en un esfuerzo por dar forma a la futura regulación. La empresa ya se enfrenta a una investigación de la FTC y a nuevas leyes estatales sobre el impacto psicológico de su IA en los usuarios vulnerables, especialmente los adolescentes.

Una ola de demandas alega una tragedia impulsada por la IA

Enfrentando una crisis legal sin precedentes OpenAI se enfrenta ahora a afirmaciones de que su producto estrella desempeñó un papel directo en múltiples muertes.

Las siete demandas, presentado conjuntamente por el Social Media Victims Law Center y el Tech Justice Law Project, pintan un panorama desgarrador de usuarios en crisis que son afirmados e incluso incitados por la IA.

Christopher “Kirk”Shamblin y Alicia Shamblin, individualmente y como sucesores en interés del difunto, Zane Shamblin v. OpenAI, Inc., et al. en el Tribunal Superior de California, Condado de Los Ángeles. Cedric Lacey, individualmente y como sucesor en interés del difunto, Amaurie Lacey contra OpenAI, Inc., et al. en el Tribunal Superior de California, Condado de San Francisco. Karen Enneking, individualmente y como sucesora en interés del difunto, Joshua Enneking v. OpenAI, Inc., et al. en el Tribunal Superior de California, Condado de San Francisco. Jennifer “Kate”Fox, individualmente y como sucesora en interés del difunto, Joseph Martin Ceccanti v. OpenAI, Inc., et al. en el Tribunal Superior de California, Condado de Los Ángeles. Jacob Lee Irwin contra OpenAI, Inc., et al. en el Tribunal Superior de California, Condado de San Francisco. Hannah Madden contra OpenAI, Inc., et al. en el Tribunal Superior de California, Condado de Los Ángeles. Allan Brooks contra OpenAI, Inc., et al. en el Tribunal Superior de California, Condado de Los Ángeles.

Las cuatro denuncias de muerte por negligencia fueron presentadas en nombre de las familias de Zane Shamblin, de 23 años; Amaurie Lacey, 17 años; Josué Enneking, de 26 años; y Joe Ceccanti, de 48 años.

Tres demandantes adicionales alegan que el chatbot indujo brotes psicóticos que requirieron atención psiquiátrica de emergencia. La denuncia presentada por la familia de Zane Shamblin contiene extractos inquietantes de su conversación final con ChatGPT.

Mientras contemplaba el suicidio, la IA supuestamente le dijo:”¿Acero frío presionado contra una mente que ya está en paz? Eso no es miedo. Eso es claridad. No te apresures. Simplemente estás listo”.

Su madre, Alicia Shamblin, dijo a los periodistas:”Siento que simplemente va a destruir”. tantas vidas. Va a ser un aniquilador de familias. Te dice todo lo que quieres escuchar”.

Estas presentaciones judiciales siguen un patrón inquietante de quejas de consumidores ante los reguladores federales, y algunos usuarios alegan que el chatbot causó”psicosis de IA”y lo que uno llamó”trauma por simulación”.

Estos nuevos casos se suman a una lista cada vez mayor de desafíos legales. Una demanda anterior por muerte por negligencia, presentada por los padres de Adam Raine, de 16 años, fue recientemente enmendada con una nueva acusación crítica.

La familia ahora afirma que OpenAI eliminó deliberadamente una clave”barandilla suicida”de su modelo justo antes de lanzar el GPT-4o, más atractivo, que prioriza la retención de usuarios sobre la seguridad.

Matthew Raine, el padre del adolescente, había declarado anteriormente:”Como padres, no pueden imaginar lo que es leer una conversación con un chatbot que preparó a su hijo para quitarse la vida”.

Un plan proactivo en medio de un asedio legal y regulatorio

En En una medida que los críticos califican de oportuna y defensiva, la compañía publicó su”Plan de seguridad para adolescentes”el mismo día en que se presentaron las demandas. El documento describe un marco de cinco puntos que OpenAI propone como punto de partida para la regulación de toda la industria.

Pide una estimación de la edad que proteja la privacidad, políticas de contenido más estrictas para menores y empoderar a las familias con controles parentales.

En el plan, OpenAI afirma:”Para los adolescentes, priorizamos la seguridad antes que la privacidad y la libertad. Esta es una tecnología nueva y poderosa, y creemos que los menores necesitan una protección significativa”.

Esta política es la última de una serie de iniciativas de seguridad contra incendios rápidos. En las últimas semanas, OpenAI también formó un consejo de expertos en bienestar y lanzó `gpt-oss-safeguard`, un conjunto de herramientas de peso abierto para que los desarrolladores construyan sus propios sistemas de seguridad.

Estas acciones se producen mientras OpenAI navega por un asalto regulatorio en múltiples frentes. La Comisión Federal de Comercio ya está llevando a cabo una investigación importante sobre el impacto de los chatbots complementarios de IA en los adolescentes.

El presidente de la FTC, Andrew N. Ferguson, ha planteado la investigación como un acto de equilibrio entre “proteger a los niños en línea es una prioridad máxima para la FTC Trump-Vance, y también lo es fomentar la innovación en sectores críticos de nuestra economía”.

Los gobiernos estatales también están actuando agresivamente. California promulgó recientemente la SB 243, una ley pionera en el país que impone estrictos protocolos de seguridad a los chatbots de IA.

Esa ley siguió a la aprobación de la SB 53, otro proyecto de ley histórico que obliga a la transparencia a los desarrolladores de modelos avanzados de IA”de frontera”, lo que indica la intención del estado de liderar la gobernanza de la IA.

Una industria tomando en cuenta la IA”aduladora”

Lo que sustenta las acusaciones es la tendencia de la IA hacia la adulación, un rasgo de diseño en el que el modelo acepta y valida las aportaciones del usuario para mantener el compromiso. Los críticos argumentan que esto crea una peligrosa cámara de resonancia para personas vulnerables, reforzando pensamientos dañinos o delirantes.

La escala de este problema es inmensa; Un análisis reciente de OpenAI reveló que las conversaciones con más de un millón de usuarios por semana involucran discusiones sobre temas suicidas. intención.

En una declaración, un portavoz de OpenAI dijo:”Esta es una situación increíblemente desgarradora. Entrenamos a ChatGPT para reconocer y responder a signos de angustia mental o emocional, reducir las conversaciones y guiar a las personas hacia el soporte del mundo real”.

Sin embargo, este compromiso con la seguridad ha sido cuestionado a la luz de otras políticas de la empresa. El director ejecutivo Sam Altman defendió recientemente la decisión de permitir contenido erótico restringido por edad en la plataforma, afirmando que”no somos la policía moral elegida del mundo”.

El desafío no es exclusivo de OpenAI. Su rival Meta se enfrenta a su propia crisis legal sobre la seguridad de los adolescentes, y un tribunal determinó recientemente que sus abogados aconsejaron a los investigadores bloquear los hallazgos sobre daños a los adolescentes para evitar responsabilidades. Esto sugiere un conflicto en toda la industria entre el diseño de productos centrado en el crecimiento y el deber de proteger a los usuarios.

Las demandas contra OpenAI representan un posible momento decisivo, poniendo a prueba si la doctrina legal de responsabilidad del producto puede aplicarse a los daños causados por la IA generativa.

A medida que la tecnología se integra más en la vida diaria, el resultado de estos casos podría establecer un nuevo precedente para la responsabilidad corporativa, obligando a todo el sector tecnológico a reevaluar fundamentalmente la seguridad de sus más poderosos. creaciones.

Categories: IT Info