Respondendo a uma reação intensa sobre a segurança adolescente e uma série de escândalos de privacidade, a Meta anunciou hoje que está revisando suas regras de chatbot da AI para usuários jovens, reconhecer que sua abordagem anterior foi um erro. As mudanças seguem uma investigação condenatória que provocou uma investigação federal e um aviso de 44 Procuradores Gerais do Estado. Isso destaca a luta contínua da empresa para equilibrar o desenvolvimento agressivo da IA com a privacidade fundamental do usuário. Ele veio apenas um dia depois de . As descobertas levaram o grupo de segurança infantil a exigir uma suspensão imediata do serviço. A condenação, afirmando:”Meta Ai é um perigo para os adolescentes e deve ser derrubado imediatamente”. O relatório criou uma crise de relações públicas que exigiu uma resposta imediata e decisiva do gigante da mídia social. Em vez disso, o chatbot orientará os usuários a recursos especializados. Um porta-voz da Meta, Stephanie Otway, confirmou a nova abordagem, afirmando: “À medida que continuamos a refinar nossos sistemas, estamos adicionando mais corrimões de proteção como uma precaução extra-incluindo o treinamento de nosso AIS para não se envolver com adolescentes nesses tópicos… Menores. Esse relatório LED Senator Josh Hawley para lançar uma sonda e senador led Josh Hawley para lançar uma sonda e e e
Meta insiste que a ferramenta é estritamente optada. No entanto, uma onda de usuários relatou encontrar as alternativas do recurso já ativadas em suas configurações, apesar de não ter memória de conceder permissão. Essa discrepância alimentou acusações de que a empresa usa interfaces confusas para garantir o consentimento. A especialista em segurança Rachel Tobac destacou o perigo dessa desconexão, afirmando:”Se as expectativas de um usuário sobre como uma ferramenta funcione não corresponde à realidade, você tem uma enorme experiência do usuário e um problema de segurança.”
Isso faz parte de um padrão bem estabelecido. Em junho de 2025, o feed”Discover”da Meta Ai App foi encontrado como expondo publicamente bate-papos privados sensíveis sem a conscientização total dos usuários. O recurso”Memória”do aplicativo também atraiu críticas fortes por manter as histórias de bate-papo por padrão para treinar seus modelos. Esse sentimento captura a crescente frustração com a abordagem da Meta, que geralmente coloca o ônus da proteção da privacidade inteiramente ao usuário. No início de agosto de 2025, um júri federal considerou a empresa responsável por coletar ilegalmente dados de saúde sensíveis dos usuários do aplicativo de rastreamento do período FLO por meio de seu software incorporado. Essa derrota legal nos EUA seguiu uma decisão inovadora na Europa.
Um tribunal alemão em julho ordenou que a Meta pague um usuário € 5.000 em danos por rastreamento ilegal de dados. A decisão estabeleceu que a mera”perda de controle”sobre dados pessoais constitui um dano compensável sob o GDPR, definindo um precedente poderoso.
Esse padrão se estende globalmente. Em setembro de 2024, a Meta admitiu em uma investigação australiana no Senado que usou dados públicos dos usuários do Facebook para treinamento de IA sem fornecer os mecanismos de exclusão oferecidos em outros lugares. Como argumentou Justin Brookman, da Consumer Reports, o relacionamento pode parecer inerentemente adversário:”A idéia de um agente é que ele está trabalhando em meu nome-não em tentar me manipular em nome dos outros”. A controvérsia da câmera e a revisão urgente do chatbot são simplesmente as mais recentes frentes nesta batalha em andamento.