Antropic está atualizando sua política de privacidade, tornando-o o mais recente desenvolvedor de IA a usar dados de bate-papo do consumidor para treinamento de modelos por padrão. Começando imediatamente para novos usuários e se inscrevendo em usuários existentes que não optam por não participar até 28 de setembro, a empresa manterá e analisará conversas de seus serviços de IA Claude para melhorar os modelos futuros. O movimento intensifica o debate em andamento sobre a privacidade do usuário e o controle de dados na corrida para a IA mais poderosa, colocando o ônus sobre os indivíduos para gerenciar ativamente como suas informações pessoais são usadas. href=”https://www.anthropic.com/news/updates-to-our-consumer-terms”Target=”_ Blank”> optar explicitamente . Para aqueles que consentem, o antropic também está estendendo seu período de retenção de dados, dos 30 dias anteriores a cinco anos. Explicar que os dados das interações do mundo real fornecem insights cruciais sobre os quais as respostas são mais úteis e precisas. Por exemplo, um código de depuração do desenvolvedor com Claude oferece sinais valiosos que melhoram o desempenho futuro do modelo em tarefas semelhantes. Ele reflete uma tendência mais ampla do setor, onde a coleta de dados padrão se tornou a norma para os produtos de IA voltados para o consumidor. O Google anunciou recentemente uma política de exclusão semelhante para a Gemini, definida para entrar em vigor em 2 de setembro. Da mesma forma, o aplicativo de IA da Meta, lançado em abril de 2025, também se lembra de bate-papos de usuários por padrão para personalizar as respostas e capturou detalhes sensíveis inferidos a partir de bate-papos. Precedentes Mount
Este pivô em todo o setor foi enfrentado com resistência significativa dos defensores da privacidade e provocou desafios legais. Os críticos argumentam que esses sistemas de exclusão foram projetados para desencorajar os usuários de proteger seus dados. Ben Winters, da Federação Consumidora da América, chamou essas divulgações e escolhas de “as divulgações e as opções do consumidor em torno das configurações de privacidade são ridicularizadas.”
O cenário legal também está se tornando mais perigoso para as empresas de tecnologia. Em janeiro de 2025, foi movido um processo de ação coletiva contra o LinkedIn, acusando-o de usar mensagens privadas no interior de assinantes premium para treinar modelos de IA, supostamente violando a Lei de Comunicações Armazenadas. Essa decisão alarmou especialistas em privacidade como Jay Edelson, que alertaram:”A ideia de que você tem um monte de advogados que farão o que forem com alguns dos dados mais sensíveis do planeta… deve deixar todos inquietos””
esses casos destacam uma tensão crescente entre a sede da tecnologia da tecnologia para os dados e suas oblicações legais e ética e ética. Muitos acham que o equilíbrio está desligado, com Justin Brookman, da Consumer Relatórios, observando:”A idéia de um agente é que ele está trabalhando em meu nome-não em tentar me manipular em nome de outras pessoas.”
ASSUSTIMENTO DIVIDADE: Stricter Privacy para usuários da empresa
A Clearwer: Crucial Divide nesses usuários da empresa
A Clearwer: Clears Dermide nesses usuários da empresa
A Clearwer: Clears Divide nesses usuários da empresa
A Cleart Divide nesses usuários da empresa. Antrópico declara explicitamente sua nova política de opção não se aplica a suas ofertas comerciais , incluindo o trabalho, o trabalho, a educação, ou os clientes de sua API. As empresas estão oferecendo garantias de privacidade mais fortes e segregação de dados para pagar clientes comerciais, que lidam com informações corporativas confidenciais e exigem controles mais rigorosos. Isso cria um sistema de duas camadas em que os usuários comuns são tratados como um recurso para o treinamento de modelos. As one researcher from the University of Oxford, Caroline Green, noted, “there is a bit of a problem when it comes to AI development, where the ethics and people are a second thought, rather than the starting point.”
Meta spokesman Thomas Richards defended his company’s approach, stating, “we’ve provided valuable personalization for people on our platforms for decades… We provide transparency and control throughout, so people can manage their experience and make sure É certo para eles,”mas para muitos, as configurações padrão contam uma história diferente.