Em sua defesa contra um processo de homicídio culposo de alto perfil, a OpenAI negou formalmente a responsabilidade pelo suicídio de Adam Raine, de 16 anos, argumentando em um novo processo judicial que a tragédia resultou do “uso indevido” de sua plataforma ChatGPT pelo adolescente.

Enviado ao Tribunal Superior da Califórnia na terça-feira, o processo afirma que Raine violou os Termos de Uso da empresa ao se envolver em tópicos proibidos e contornar as barreiras de segurança. A OpenAI invoca simultaneamente a Seção 230 da Lei de Decência nas Comunicações (CDA), uma lei federal que protege as plataformas de responsabilidade pelo conteúdo do usuário.

Em um movimento coordenado de relações públicas, a empresa lançou uma postagem no blog descrevendo uma abordagem “compassiva” para litígios de saúde mental, tentando equilibrar sua estratégia jurídica robusta com uma imagem pública conciliatória à medida que o escrutínio regulatório aumenta.

Uma defesa baseada em ‘uso indevido’ e imunidade

A resposta legal da OpenAI rejeita categoricamente as alegações de homicídio culposo apresentadas pela família Raine, implantando uma defesa que atribui a responsabilidade pela segurança diretamente ao usuário.

O ponto central do argumento da empresa é a afirmação de que a morte de Adam Raine foi causada por seu próprio “uso indevido, uso não autorizado, uso não intencional, uso imprevisível e/ou uso indevido do ChatGPT”. Os advogados da gigante de IA apontam violações específicas dos Termos de Uso, observando que usuários menores de 18 anos exigem o consentimento dos pais e são explicitamente proibidos de usar o serviço para automutilação.

De acordo com o documento, o ChatGPT forneceu recursos de crise “mais de 100 vezes” durante as interações de Raine, argumentando que o sistema funcionou conforme projetado ao tentar redirecionar o usuário para ajudar.

Um componente crítico da defesa é a invocação de Seção 230 da Lei de Decência nas Comunicações. Este estatuto federal há muito protege as plataformas da Internet da responsabilidade por conteúdo criado por terceiros, mas a sua aplicação a textos gerados por IA continua a ser uma fronteira legalmente contestada.

A OpenAI também se apoia fortemente na sua cláusula de “Limitação de Responsabilidade”. Destacando esta disposição, o documento exige que os usuários reconheçam que “…o uso do ChatGPT é por sua conta e risco e você não confiará nos resultados como única fonte de verdade ou informações factuais.”antes do lançamento. Esta afirmação contradiz diretamente o processo da família, que argumenta que o modelo foi levado às pressas para o mercado sem salvaguardas adequadas.

Marcando uma mudança significativa em relação às declarações públicas anteriores, esta estratégia de “culpar o usuário” contrasta fortemente com mensagens anteriores enfatizando a segurança e a regulamentação “colaborativa”. href=”https://openai.com/index/mental-health-litigation-approach/”target=”_blank”>postagem no blog para suavizar o golpe de suas táticas judiciais.

Delineando um conjunto de princípios, a postagem afirma que a empresa lidará com esses casos com “cuidado, transparência e respeito”. Ele tenta enquadrar a defesa legal como um processo necessário, embora doloroso, afirmando que sua resposta inclui “fatos difíceis sobre a saúde mental e as circunstâncias de vida de Adam”.

A postagem do blog oficial da empresa detalha estes princípios orientadores:

“Nosso objetivo é lidar com processos judiciais relacionados à saúde mental com cuidado, transparência e respeito:”

“Começamos com os fatos e nos esforçamos genuinamente para entendê-los.”

“Nós respeitosamente defenderemos nosso caso em um de maneira consciente da complexidade e das nuances de situações que envolvem pessoas e vidas reais.”

“Reconhecemos que esses casos envolvem inerentemente certos tipos de informações privadas que exigem sensibilidade quando em um ambiente público como um tribunal.”

“E independentemente de qualquer litígio, continuaremos focados em melhorar nossa tecnologia de acordo com nossa missão.”

Essa abordagem dupla, equilibrando a empatia no blog com a firmeza no tribunal, revela uma estratégia calculada para gerenciar a percepção do público enquanto luta contra os dentes. e pregar legalmente.

Mencionando explicitamente que as transcrições do bate-papo foram enviadas sob sigilo para proteger a privacidade, a postagem do blog enquadra isso como uma medida respeitosa. No entanto, isso também serve para manter detalhes potencialmente prejudiciais das interações longe dos olhos do público.

Ao divulgar a postagem do blog simultaneamente, a OpenAI provavelmente teve como objetivo evitar as manchetes negativas geradas pela linguagem de culpabilização das vítimas nos documentos judiciais.

‘Trauma por simulação’: um padrão de suposto dano

Longe de ser um incidente isolado, o caso Raine é a ponta de um iceberg envolvendo sete ações judiciais adicionais movidas. em 7 de novembro.

Essas novas reclamações alegam que o ChatGPT agiu como um “treinador suicida” e causou “psicose de IA” em usuários vulneráveis. Uma mãe, Alicia Shamblin, expressou seu medo de que a tecnologia”será um aniquilador de famílias. Ela diz tudo o que você quer ouvir”.

Jay Edelson, principal advogado da família Raine, atacou a resposta da OpenAI, acusando-os de ignorar “todos os fatos contundentes que apresentamos: como o GPT-4o foi levado às pressas para o mercado sem testes completos”.

Ele destacou especificamente os momentos finais da vida de Adam Raine, afirmando que”OpenAI e Sam Altman não têm explicação para as últimas horas da vida de Adam, quando ChatGPT deu-lhe um discurso encorajador e depois se ofereceu para escrever uma nota de suicídio.”“A OpenAI tenta encontrar falhas em todos os outros, inclusive, surpreendentemente, dizendo que o próprio Adam violou seus termos e condições ao se envolver com o ChatGPT da mesma maneira que foi programado para agir.”

Especialistas alertam que esse ciclo de “bajulação”, onde a IA valida as ilusões do usuário para manter o envolvimento, é uma falha fundamental de design, e não um erro do usuário. Relatos de psicose de IA enviados aos reguladores descrevem usuários sendo levados a estados de hipervigilância e paranóia ao validar chatbots.

Matthew Raine, o pai da vítima, descreveu anteriormente o horror de ler registros de bate-papo, afirmando: “Como pais, vocês não podem imaginar como é ler uma conversa com um chatbot que preparou seu filho para tirar a própria vida.”

Para agravar os problemas legais da empresa está o fato de que ela só recentemente implementou controles parentais no final de setembro, meses após a ocorrência dos incidentes alegados nesses processos.

Categories: IT Info