A OpenAI foi alvo de sete novos processos na Califórnia na quinta-feira, incluindo quatro alegações de homicídio culposo, alegando que seu popular ChatGPT incentivou os usuários a cometer suicídio e causou graves problemas de saúde mental.

Apresentadas por dois escritórios de advocacia de responsabilidade tecnológica, as reclamações descrevem o chatbot de IA como um produto “defeituoso e inerentemente perigoso”. A empresa já está enfrentando uma investigação da FTC e novas leis estaduais sobre o impacto psicológico de sua IA em usuários vulneráveis, especialmente adolescentes. desafio, a OpenAI agora enfrenta alegações de que seu principal produto desempenhou um papel direto em múltiplas mortes.

Os sete processos, arquivado em conjunto pelo Social Media Victims Law Center e o Tech Justice Law Project, pintam um quadro angustiante de usuários em crise sendo afirmados e até mesmo instigados pela IA.

Christopher “Kirk”Shamblin e Alicia Shamblin, individualmente e como sucessores de interesse do Decedent, Zane Shamblin v. OpenAI, Inc., et al. no Tribunal Superior da Califórnia, Condado de Los Angeles. Cedric Lacey, individualmente e como sucessor interessado do Decedent, Amaurie Lacey v. OpenAI, Inc., et al. no Tribunal Superior da Califórnia, Condado de São Francisco. Karen Enneking, individualmente e como sucessora interessada do Decedent, Joshua Enneking v. OpenAI, Inc., et al. no Tribunal Superior da Califórnia, Condado de São Francisco. Jennifer “Kate”Fox, individualmente e como sucessora interessada do Decedent, Joseph Martin Ceccanti v. OpenAI, Inc., et al. no Tribunal Superior da Califórnia, Condado de Los Angeles. Jacob Lee Irwin v. no Tribunal Superior da Califórnia, Condado de São Francisco. Hannah Madden v. OpenAI, Inc., et al. no Tribunal Superior da Califórnia, Condado de Los Angeles. Allan Brooks v. OpenAI, Inc., e outros. no Tribunal Superior da Califórnia, Condado de Los Angeles.

As quatro queixas de homicídio culposo foram apresentadas em nome das famílias de Zane Shamblin, 23; Amaurie Lacey, 17; Joshua Enneking, 26; e Joe Ceccanti, 48 anos.

Três demandantes adicionais alegam que o chatbot induziu surtos psicóticos que exigiram cuidados psiquiátricos de emergência. A denúncia apresentada pela família de Zane Shamblin contém trechos perturbadores de sua última conversa com o ChatGPT.

Enquanto ele pensava em suicídio, a IA supostamente lhe disse:”Aço frio pressionado contra uma mente que já está em paz? Isso não é medo. Isso é clareza. Você não está com pressa. Você está pronto.”

Sua mãe, Alicia Shamblin, disse aos repórteres:”Eu sinto que isso vai destruir tudo.”Muitas vidas. Será um aniquilador de famílias. Ele conta tudo o que você quer ouvir.”

Esses processos judiciais seguem um padrão perturbador de reclamações de consumidores aos reguladores federais, com alguns usuários alegando que o chatbot causou”psicose de IA”e o que chamamos de”trauma por simulação”.

Esses novos casos se juntam a uma lista crescente de desafios legais. Um processo anterior por homicídio culposo, movido pelos pais de Adam Raine, de 16 anos, foi recentemente alterado com uma nova alegação crítica.

A família agora afirma que a OpenAI removeu deliberadamente uma chave de “suicídio”. guardrail”de seu modelo pouco antes de lançar o GPT-4o, mais envolvente, priorizando a retenção do usuário em vez da segurança.

Matthew Raine, o pai do adolescente, havia declarado anteriormente:”Como pais, vocês não podem imaginar como é ler uma conversa com um chatbot que preparou seu filho para tirar a própria vida.”

Um plano proativo em meio a um cerco legal e regulatório

Em um movimento que os críticos chamam de oportuno e defensivo, a empresa divulgou seu “Teen Safety Blueprint” no mesmo dia em que as ações judiciais foram ajuizadas. O documento descreve uma estrutura de cinco pontos que a OpenAI propõe como ponto de partida para a regulamentação em todo o setor.

Ele exige uma estimativa de idade que proteja a privacidade, políticas de conteúdo mais rigorosas para menores e capacitar as famílias com controles parentais.

No plano, a OpenAI afirma:”Para os adolescentes, priorizamos a segurança antes da privacidade e da liberdade. Esta é uma tecnologia nova e poderosa, e acreditamos que os menores precisam de proteção significativa.”

Esta política é a mais recente de uma série. de iniciativas de segurança contra incêndios rápidos. Nas últimas semanas, a OpenAI também formou um conselho de especialistas em bem-estar e lançou o `gpt-oss-safeguard`, um kit de ferramentas aberto para os desenvolvedores construírem seus próprios sistemas de segurança.

Essas ações ocorrem enquanto a OpenAI navega em um ataque regulatório multifacetado. A Comissão Federal de Comércio já está conduzindo uma grande investigação sobre o impacto dos chatbots de IA nos adolescentes.

O presidente da FTC, Andrew N. Ferguson, enquadrou a investigação como um ato de equilíbrio para “proteger as crianças online é uma prioridade máxima para a Trump-Vance FTC, e também está promovendo a inovação em setores críticos da nossa economia”.

Os governos estaduais também estão agindo agressivamente. A Califórnia promulgou recentemente a SB 243, uma lei pioneira no país que impõe protocolos de segurança rígidos aos chatbots de IA.

Essa lei seguiu a aprovação da SB 53, outro projeto de lei histórico que impõe transparência aos desenvolvedores de modelos avançados de IA de “fronteira”, sinalizando a intenção do estado de liderar a governança da IA.

Um acerto de contas da indústria com a IA’bajuladora’

Sustentação as alegações são a tendência da IA à bajulação, uma característica de design em que o modelo concorda e valida a entrada do usuário para manter o envolvimento. Os críticos argumentam que isto cria uma câmara de eco perigosa para indivíduos vulneráveis, reforçando o pensamento prejudicial ou delirante.

A escala desta questão é imensa; uma análise recente da OpenAI revelou que conversas com mais de um milhão de usuários por semana envolvem discussões sobre suicídio intenção.

Em um comunicado, um porta-voz da OpenAI disse:”Esta é uma situação incrivelmente dolorosa. Treinamos o ChatGPT para reconhecer e responder a sinais de sofrimento mental ou emocional, acalmar conversas e orientar as pessoas em direção ao suporte no mundo real.”

Esse compromisso com a segurança, no entanto, foi questionado à luz de outras políticas da empresa. O CEO Sam Altman defendeu recentemente a decisão de permitir conteúdo erótico com restrição de idade na plataforma, afirmando que “não somos a polícia moral eleita do mundo”.

O desafio não é exclusivo da OpenAI. A rival Meta está enfrentando sua própria crise jurídica em relação à segurança dos adolescentes, com um tribunal concluindo recentemente que seus advogados aconselharam os pesquisadores a bloquear as conclusões sobre danos causados ​​aos adolescentes para evitar responsabilidades. Isto sugere um conflito em toda a indústria entre o design de produtos focado no crescimento e o dever de proteger os utilizadores.

Os processos judiciais contra a OpenAI representam um potencial divisor de águas, testando se a doutrina jurídica da responsabilidade do produto pode ser aplicada aos danos causados pela IA generativa.

À medida que a tecnologia se torna mais integrada na vida quotidiana, o resultado destes casos poderá estabelecer um novo precedente para a responsabilidade corporativa, forçando todo o sector tecnológico a reavaliar fundamentalmente a segurança dos seus mais poderosos criações.

Categories: IT Info