A OpenAI lançou seu “Teen Safety Blueprint” na quinta-feira, uma nova estrutura projetada para proteger jovens usuários de IA.
A mudança é uma resposta direta à intensa pressão legal e governamental enfrentada pela empresa de São Francisco. A OpenAI está enfrentando uma investigação da Comissão Federal de Comércio, uma nova lei de chatbot da Califórnia e ações judiciais que vinculam sua ferramenta ChatGPT à automutilação de adolescentes.
Para se antecipar à crise, a empresa está propondo cinco princípios básicos de segurança. Isso inclui melhor detecção de idade e proteções padrão para menores. A OpenAI espera que este plano proativo molde as futuras regras do setor e aborde as crescentes preocupações de segurança.
Um plano de cinco pontos para moldar as normas de segurança de IA
No coração do blueprint são cinco princípios básicos que a OpenAI defende que todas as empresas de IA deveriam adotar.
A empresa está posicionando o documento não apenas como uma política interna, mas como um ponto de partida para os legisladores elaborarem novas regulamentações. Primeiro, ela exige a identificação de adolescentes em plataformas usando “ferramentas de estimativa de idade baseadas em risco e que protejam a privacidade” para fornecer experiências distintas e apropriadas à idade.
Como afirma a empresa: “Acreditamos que o ChatGPT deve atendê-los onde eles estão: a maneira como o ChatGPT responde a um jovem de 15 anos deve ser diferente da maneira como responde a um adulto”.
Em segundo lugar, a estrutura exige políticas específicas e rigorosas para mitigar os riscos para os usuários sob 18. De acordo com o projeto, os sistemas de IA devem ser projetados para não retratar suicídio ou automutilação e devem “proibir conteúdo íntimo e violento gráfico ou imersivo (ou seja, dramatização).
As políticas também visam evitar que a IA reforce “ideais e comportamentos corporais prejudiciais por meio de classificações de aparência, comparações corporais ou treinamento de dieta restritiva”.
Terceiro, a OpenAI defende o padrão de uma dieta segura. Experiência de menores de 18 anos sempre que a idade de um usuário estiver em dúvida, especialmente para usuários não autenticados. Isso prioriza a segurança, mesmo que isso impeça o uso de um produto gratuito por um adulto.
Quarto, o plano enfatiza a capacitação das famílias com controles parentais acessíveis, com base em recursos lançados recentemente pela empresa. Esses controles permitem que os responsáveis vinculem contas, definam “horários de indisponibilidade”, gerenciem as configurações de privacidade de dados e recebam alertas se a atividade de um adolescente sugerir uma intenção de automutilação.
Finalmente, exige um design voltado para o bem-estar, incorporando recursos baseados em pesquisas em saúde mental. O documento da OpenAI enquadra isto como uma mudança fundamental nas prioridades.”Para os adolescentes, priorizamos a segurança antes da privacidade e da liberdade. Esta é uma tecnologia nova e poderosa, e acreditamos que os menores precisam de proteção significativa.”
Um movimento proativo em meio a um cerco regulatório e legal
Enfrentando uma onda gigantesca de escrutínio legal e regulatório, o projeto da OpenAI é uma clara tentativa de controlar a narrativa. A empresa está atualmente se defendendo contra um processo de homicídio culposo movido pelos pais de um adolescente que morreu por suicídio.
O pai do adolescente, Matthew Raine, emitiu uma repreensão poderosa, afirmando: “Como pais, vocês não podem imaginar como é ler uma conversa com um chatbot que preparou seu filho para tirar a própria vida”.
Esse caso galvanizou a preocupação pública e colocou as práticas de segurança da empresa sob um microscópio.
A pressão governamental está aumentando em diversas direções. Em setembro, a Comissão Federal de Comércio dos EUA lançou uma grande investigação sobre o impacto dos chatbots de IA sobre os adolescentes, visando a OpenAI e seis outros gigantes da tecnologia.
O presidente da FTC, Andrew N. Ferguson, descreveu a investigação como um ato de equilíbrio: “proteger as crianças online é uma prioridade máxima para a Trump-Vance FTC, e por isso está promovendo a inovação em setores críticos da nossa economia”.
Os legisladores estaduais e federais também estão agindo agressivamente. Na Califórnia, o governador Gavin Newsom assinou o SB 243 como lei em 13 de outubro, criando regras pioneiras no país para IA chatbots.
A lei determina que as operadoras forneçam alertas recorrentes lembrando os menores de que estão conversando com uma IA, bloqueiem conteúdo perigoso e forneçam um direito privado de ação para as famílias processarem desenvolvedores não conformes.
O autor do projeto, o senador Steve Padilla, havia argumentado anteriormente que “as Big Tech provaram repetidas vezes que não se pode confiar nelas para se policiarem”. No nível federal, um grupo bipartidário de senadores dos EUA apresentou a Lei GUARD no final de outubro.
Esse projeto vai ainda mais longe, propondo uma proibição total de companheiros de IA. para menores e criando novas responsabilidades criminais para empresas cuja IA produz conteúdo ilícito para utilizadores menores de idade.
No seu plano, a OpenAI rechaça a narrativa de inacção, destacando as suas medidas de segurança existentes. A empresa observou que só no primeiro semestre de 2025, relatou às autoridades mais de 75.000 dicas cibernéticas de material de abuso sexual infantil gerado por IA.
Equilibrando a segurança com uma postura controversa de’polícia moral’
No entanto, à medida que a OpenAI se posiciona como líder na segurança dos adolescentes, também deve enfrentar as suas próprias declarações públicas e políticas conflitantes. Essas mensagens de segurança contrastam fortemente com as recentes mudanças nas políticas da empresa.
No mês passado, o CEO Sam Altman defendeu uma decisão controversa de permitir conteúdo erótico com restrição de idade no ChatGPT. Ele resistiu às críticas declarando: “não somos a polícia moral eleita do mundo”. A medida, que suscitou a preocupação de figuras como Mark Cuban, criou uma percepção de prioridades conflituantes dentro da empresa.
O Plano de Segurança para Adolescentes pode ser visto como a mais recente de uma série de iniciativas rápidas concebidas para demonstrar um compromisso com a segurança. No final de setembro, a empresa lançou seu conjunto de controles parentais.
Apenas duas semanas depois, anunciou a formação de um conselho de especialistas de oito membros para aconselhar sobre bem-estar e saúde mental.
Esses desafios não são exclusivos da OpenAI, refletindo um cálculo mais amplo de todo o setor. Concorrentes como a Meta estão enfrentando suas próprias crises jurídicas em relação à segurança dos adolescentes. Um tribunal de DC invocou recentemente a rara exceção de fraude criminal para determinar que a Meta não poderia esconder pesquisas internas sobre danos a adolescentes por trás do privilégio advogado-cliente.
O tribunal encontrou evidências de que os advogados aconselharam os pesquisadores a alterar as descobertas para limitar a responsabilidade, validando as alegações dos denunciantes de uma estratégia de “negação plausível”. Ao lançar o seu plano, a OpenAI está a fazer uma jogada estratégica para definir os termos da segurança da IA, na esperança de moldar as regras antes que os reguladores e os tribunais imponham regras mais rigorosas.