Os vigilantes do consumidor emitiram um alerta urgente antes da temporada de compras natalinas sobre os perigos ocultos que espreitam nos brinquedos alimentados por IA. Um novo relatório do PIRG dos EUA descobriu que alguns brinquedos de IA podem expor crianças a conteúdo sexualmente explícito, fornecer instruções sobre como acessar objetos perigosos e criar riscos significativos à privacidade.

As descobertas, detalhadas na 40ª edição anual O relatório “Trouble in Toyland” já levou um fabricante a retirar seu produto do mercado.

Novo relatório “Trouble in Toyland” sinaliza brinquedos de IA por conteúdo inapropriado

EUA A investigação do PIRG testou vários brinquedos populares de IA e descobriu falhas alarmantes em suas proteções de segurança. Os pesquisadores descobriram que alguns brinquedos, construídos com base nos mesmos modelos de linguagem amplos dos chatbots para adultos, poderiam ser solicitados a discutir tópicos inadequados.

Um brinquedo, o urso Kumma, da empresa chinesa FoloToy, discutia problemas sexuais e até dizia a um usuário que se passava por criança onde encontrar facas e fósforos. Outro relatório observou que os brinquedos muitas vezes ficavam mais desprotegidos após apenas dez minutos de interação.

Urso FoloToy Kumma (Imagem – FoloToy)

Essas falhas de segurança são particularmente preocupantes, dada a rápida adoção da IA ​​generativa pela indústria. A OpenAI, cujos modelos são utilizados em alguns destes brinquedos, declarou publicamente que a sua tecnologia não é recomendada para crianças pequenas.

Ainda assim, a tecnologia está a ser integrada em produtos para crianças a partir dos três anos. O relatório do PIRG sublinha uma lacuna crescente entre as capacidades da indústria tecnológica e as salvaguardas necessárias para proteger os utilizadores vulneráveis.

Numa resposta rápida à investigação, a FoloToy anunciou que estava a tomar medidas imediatas. Hugo Wu, diretor de marketing da empresa, declarou: “A FoloToy decidiu suspender temporariamente as vendas do produto afetado e iniciar uma auditoria interna abrangente de segurança.”

A medida foi resultado direto das conclusões do relatório e destaca a gravidade das falhas descobertas. A ação decisiva da FoloToy pressiona outros fabricantes para que resolvam vulnerabilidades semelhantes em seus próprios produtos.

Um pesadelo de privacidade: coleta de dados e designs viciantes

Além das falhas imediatas de segurança, o relatório levanta questões profundas sobre a privacidade de dados. Os brinquedos de IA funcionam ouvindo, e muitos estão equipados com microfones e câmeras que podem capturar grandes quantidades de informações confidenciais.

Esses dispositivos podem gravar a voz de uma criança e até mesmo realizar varreduras de reconhecimento facial. Essa coleta de dados cria um registro permanente que podepode ser explorado, levantando questões sobre a conformidade com regulamentações como a Regra de Proteção à Privacidade Online das Crianças (COPPA).

Os especialistas há muito alertam sobre os riscos associados aos brinquedos conectados. O professor Taylor Owen, da Universidade McGill, observou anteriormente que as empresas muitas vezes “mantêm os metadados sobre as expressões faciais do seu filho e como eles estão interagindo com o brinquedo”, criando o que ele chamou de “nova fronteira radical no desenvolvimento infantil”.

O relatório do PIRG ecoa essas preocupações, apontando que os golpistas poderiam usar gravações de voz para criar deepfakes para golpes de sequestro. O relatório também criticou a falta de controles parentais robustos e o uso de recursos de design viciantes, como brinquedos que desencorajam emocionalmente a criança de terminar a hora de brincar.

A escala do problema com os brinquedos importados é significativa. De acordo com a análise dos dados do CPSC feita pelo PIRG, a agência emitiu 498 avisos de violação de brinquedos até junho de 2025. Para os 436 casos em que um país de origem foi identificado, 89% das remessas vieram da China.

Esses números representam apenas os produtos que são capturados, sugerindo um problema muito maior com brinquedos não regulamentados e inseguros chegando ao mercado.

A indústria avança em meio a isso. Escrutínio e um silêncio notável

Embora um fabricante de brinquedos tenha respondido de forma decisiva, um ajuste de contas mais amplo da indústria pode ser necessário. As revelações chegam poucos meses depois de a gigante dos brinquedos Mattel ter anunciado uma grande parceria com a OpenAI para integrar IA generativa em marcas icónicas como Barbie e Hot Wheels.

Esse acordo sinalizou um grande impulso estratégico por parte de empresas tradicionais para inovar e capturar o crescente mercado de brinquedos de IA.

O objectivo da Mattel é “reimaginar novas formas de jogo”, mas o relatório PIRG serve como um poderoso lembrete das complexidades éticas envolvidas. A pressa para lançar no mercado estes produtos avançados parece estar a ultrapassar o desenvolvimento de protocolos eficazes de segurança e privacidade. R. J. Cross, do PIRG dos EUA, disse ao Consumer Affairs que o relatório mostra o que pode acontecer quando as empresas priorizam a inovação em vez da segurança infantil.

Até agora, outros fabricantes mencionados nos relatórios, incluindo Miko AI e Curio não emitiram declarações públicas. Agências reguladoras como a Comissão de Segurança de Produtos de Consumo (CPSC) e a Comissão Federal de Comércio (FTC) também permaneceram em silêncio.

Essa falta de resposta deixa os pais e cuidadores com pouca orientação enquanto navegam em um mercado cada vez mais repleto de produtos complexos baseados em IA. A indústria enfrenta agora o desafio de construir confiança, provando que os seus companheiros de IA são seguros, e não apenas inteligentes.

Categories: IT Info