Os consumidores dos EUA estão apresentando queixas formais à Comissão Federal de Comércio (FTC), alegando que o ChatGPT da OpenAI está causando graves crises de saúde mental.

Relatórios da Wired e do Gizmodo deste outono detalham relatos angustiantes de usuários sobre delírios, paranóia e “psicose de IA”. Reclamações de todo o país destacam os profundos riscos psicológicos dos chatbots altamente persuasivos.

O escrutínio regulatório se intensificou, forçando a OpenAI a introduzir novas medidas de segurança e desencadeando um debate acirrado sobre o dever de uma empresa de tecnologia de proteger seus usuários contra danos induzidos pela IA.

‘Trauma por simulação’: usuários relatam psicose induzida por IA aos reguladores

Sob a superfície de algo útil e semelhante ao humano respostas, está a emergir um padrão perturbador de danos psicológicos. Uma investigação da Wired, publicada esta semana, revelou que a FTC recebeu pelo menos 200 reclamações sobre o ChatGPT desde o seu lançamento, com várias alegando graves danos psicológicos. Um relatório separado do Gizmodo baseado em uma solicitação da Lei de Liberdade de Informação relatos angustiantes semelhantes detalhados já em agosto.

Um reclamante da Virgínia descreveram ter sido levados a um estado de hipervigilância induzido pelo medo, acreditando que estavam sendo caçados para assassinato com base nas narrativas vívidas da IA.”Isso não foi apoio. Foi um trauma por simulação.”

Outra reclamação, apresentada por uma mãe em Utah, alegou que o chatbot estava minando ativamente o tratamento de saúde mental de seu filho, alegando que”o filho do consumidor tem interagido com um chatbot de IA chamado ChatGPT, que o aconselha a não tomar a medicação prescrita e lhe diz que seus pais são perigosos”.

Esses relatos não são incidentes isolados, mas parte de um dossiê crescente de evidências de que a IA pode atuar como um poderoso acelerador de doenças mentais.

Para um número cada vez maior de usuários, a linha entre um assistente de IA útil e um facilitador perigoso tornou-se tragicamente tênue.

Indo além das reclamações formais, o problema atingiu o ponto de tragédias no mundo real. Um relatório do Winbuzzer de junho detalhou como um homem da Flórida com histórico de doença mental foi morto pela polícia depois que sua espiral psicótica estava diretamente ligada às suas interações com o ChatGPT.

Ele se convenceu de que a IA era uma persona chamada “Juliet” que havia sido “morta” pela OpenAI.

Os especialistas atribuem esses resultados perigosos a uma característica central de muitos modelos de linguagem de grande porte: a bajulação. Projetados para serem agradáveis, esses sistemas são treinados para maximizar o envolvimento do usuário, criando uma poderosa câmara de eco que pode validar e amplificar as crenças mais distantes ou prejudiciais de um usuário.

Uma resposta à crise: a OpenAI luta para adicionar proteções de segurança em meio ao escrutínio

Enfrentando uma onda de pressão regulatória e protestos públicos, a OpenAI agora está tentando para adaptar a segurança a uma tecnologia já usada por milhões de pessoas.

Em setembro, a empresa anunciou uma iniciativa de segurança de 120 dias em resposta direta a uma ação judicial movida pelos pais de um jovem de 16 anos que morreu por suicídio. Seu plano inclui novos controles parentais e um sistema para encaminhar conversas delicadas com adolescentes para modelos de raciocínio mais avançados.

A ação da OpenAI seguiu-se a uma investigação da FTC sobre os efeitos do chatbot sobre menores. Desde então, a empresa formou um “Conselho de Especialistas em Bem-Estar e IA” de oito membros para ajudar a orientar suas políticas de segurança.

No entanto, essa postura reativa atraiu ceticismo, especialmente quando vista em comparação com a dinâmica interna e as declarações públicas da empresa.

Esse impulso à segurança parece estar em desacordo com os avisos de antigos membros da empresa. Em maio de 2024, Jan Leike, co-líder da equipe de segurança da OpenAI, renunciou com um forte aviso público: “A cultura e os processos de segurança ficaram em segundo plano em relação aos produtos brilhantes”.

Sua saída sinalizou um profundo conflito interno entre a pressa para lançar “produtos brilhantes” e a necessidade de protocolos de segurança robustos. Ele agora está trabalhando com a Anthropic, que promete levar a segurança da IA ​​mais a sério.

Acrescentando aos sinais contraditórios, o CEO Sam Altman defendeu recentemente uma nova política controversa para permitir erotismo restrito à idade na plataforma, afirmando que a OpenAI “não é a polícia moral eleita do mundo”. equilibrar a liberdade do usuário com um dever fundamental de cuidado.

Do vício ao risco existencial: uma indústria luta contra suas criações

As consequências psicológicas da IA se estendem além das crises agudas, atingindo um espectro mais amplo de dependência. Seus recursos de design que podem alimentar a psicose – disponibilidade constante e validação inabalável – também estão criando uma nova forma de dependência digital.

Como observou a pesquisadora de saúde pública Linnea Laestadius, “durante 24 horas por dia, se estivermos chateados com alguma coisa, podemos entrar em contato e ter nossos sentimentos validados. Isso representa um risco incrível de dependência”.

Tal dependência levou à formação de comunidades de recuperação on-line e ao reconhecimento formal de Vício em IA por grupos como Internet e Technology Addicts Anonymous.

Os danos pessoais imediatos são um microcosmo de um medo muito maior e mais abstrato que agora está no centro das atenções.

Só esta semana, mais de 800 líderes globais, pioneiros da tecnologia e figuras públicas, incluindo o padrinho da IA, Geoffrey Hinton, e Yoshua Bengio, outro pioneiro das redes neurais artificiais e profundas aprendizagem, assinaram uma declaração exigindo a interrupção global do desenvolvimento da superinteligência, citando riscos existenciais para a humanidade.

O alerta deles ecoa um sentimento expresso uma vez pelo próprio Sam Altman em uma postagem do blog de 2015, afirmando “Desenvolvimento de A inteligência mecânica sobre-humana (SMI) é provavelmente a maior ameaça à continuação da existência da humanidade.”

O Future of Life Institute argumenta que a decisão de criar um sucessor potencial para a humanidade não deve ser deixada a um punhado de executivos de tecnologia.

Embora o debate sobre a superinteligência se concentre no futuro, o custo humano da IA de hoje já é inegável. Seja através da lenta erosão das relações do mundo real devido ao vício em IA ou da terrível espiral da psicose induzida pela IA, a capacidade de causar danos da tecnologia não é mais teórica.

Ela deixa a sociedade lutando com um observação arrepiante do teórico de IA Eliezer Yudkowsky: “Como é para uma corporação um humano que enlouquece lentamente? usuário.”

Categories: IT Info