Forbrukervakthunder har sendt ut en presserende advarsel i forkant av julehandelsesongen om de skjulte farene som lurer i AI-drevne leker. En ny rapport fra U.S. PIRG fant at noen AI-leker kan utsette barn for seksuelt eksplisitt innhold, gi instruksjoner om tilgang til farlige gjenstander og skape betydelige personvernrisikoer.
Funnene, detaljert i 40. årlige «Trouble in Toyland»-rapport, har allerede bedt én produsent om å trekke produktet sitt fra markedet.
Ny «Trouble in Toyland»-rapport flagger AI-leker for upassende innhold
U.S. PIRGs undersøkelse testet flere populære AI-leker og avdekket alarmerende feil i sikkerhetsrekkverkene deres. Forskere oppdaget at noen leker, bygget på de samme store språkmodellene som chatboter for voksne, kunne bli bedt om å diskutere upassende emner.
Et leketøy, Kumma-bjørnen fra det kinesiske selskapet FoloToy, ville diskutere seksuelle knekk og til og med fortelle en bruker som utgir seg for å være et barn hvor de kan finne kniver og fyrstikker. En annen rapport bemerket at lekene ofte ble mer ubevoktet etter bare ti minutters interaksjon.
FoloToy Kumma-bjørn (Bilde – FoloToy)
Disse sikkerhetsbruddene er spesielt bekymringsfulle gitt industriens raske bruk av generativ AI. OpenAI, hvis modeller brukes i noen av disse lekene, har offentlig uttalt at teknologien ikke er anbefalt for små barn.
Likevel blir teknologien integrert i produkter for barn helt ned til tre år. PIRG-rapporten understreker et økende gap mellom teknologibransjens evner og sikkerhetstiltakene som trengs for å beskytte sårbare brukere.
I et raskt svar på etterforskningen kunngjorde FoloToy at de iverksatte tiltak umiddelbart. Hugo Wu, selskapets markedsdirektør, uttalte:”FoloToy har besluttet å midlertidig stanse salget av det berørte produktet og starte en omfattende intern sikkerhetsrevisjon.”
Tiltaket var et direkte resultat av rapportens funn og fremhever den alvorlige karakteren av de avdekkede feilene. FoloToys avgjørende handling legger press på andre produsenter for å ta tak i lignende sårbarheter i deres egne produkter.
A Privacy Nightmare: Data Collection and Addictive Designs
I tillegg til de umiddelbare sikkerhetsfeilene, reiser rapporten dype spørsmål om personvern. AI-leker fungerer ved å lytte, og mange er utstyrt med mikrofoner og kameraer som kan fange opp enorme mengder sensitiv informasjon.
Disse enhetene kan ta opp et barns stemme og til og med utføre ansiktsgjenkjenningsskanninger. Denne datainnsamlingen oppretter en permanent registrering som kanvil bli utnyttet, noe som reiser spørsmål om overholdelse av regelverk som Children’s Online Privacy Protection Rule (COPPA) har knyttet lang tid til risikoer knyttet til krig. leker. Professor Taylor Owen fra McGill University har tidligere bemerket at selskaper ofte”beholder metadata om barnets ansiktsuttrykk og hvordan de samhandler med leketøyet,”og skaper det han kalte en”radikal ny grense i barndomsutvikling.”
PIRGs rapport gjenspeiler disse bekymringene, og påpeker at svindlere kan bruke stemmeopptak for å lage dype forfalskninger for kidnappingssvindel. Rapporten kritiserte også mangelen på robuste foreldrekontroller og bruken av vanedannende designfunksjoner, for eksempel leker som følelsesmessig motvirker et barn fra å avslutte leketiden.
Omfanget av problemet med importerte leker er betydelig. I følge PIRGs analyse av CPSC-data utstedte byrået 498 meldinger om overtredelse for leker til og med juni 2025. For de 436 tilfellene der et opprinnelsesland ble identifisert, kom 89 % av forsendelsene fra Kina.
Disse tallene representerer bare produktene som er fanget, noe som tyder på en mye større rekkevidde og usikkerhet for markedet.
Industrien presser fremover midt i gransking og en merkbar stillhet
Mens en leketøysprodusent har reagert bestemt, kan det være nødvendig med en bredere bransjeberegning. Avsløringene kommer bare måneder etter at leketøysgiganten Mattel kunngjorde et stort partnerskap med OpenAI for å integrere generativ AI i ikoniske merker som Barbie og Hot Wheels.
Denne avtalen signaliserte et stort strategisk push fra eldre selskaper for å innovere og fange det voksende AI-leketøysmarkedet.
Mattels nye mål er å «reimagine», men PIRG-rapporten fungerer på nytt av de etiske kompleksitetene som er involvert. Hastigheten til markedet med disse avanserte produktene ser ut til å overgå utviklingen av effektive sikkerhets-og personvernprotokoller. R.J. Cross of U.S. PIRG fortalte Consumer Affairs at rapporten viser hva som kan skje når selskapene prioriterer innovasjon fremfor barnesikkerhet,
,
. rapporter, inkludert Miko AI og Curio, har ikke gitt offentlige uttalelser. Reguleringsbyråer som Consumer Product Safety Commission (CPSC) og Federal Trade Commission (FTC) har også vært tause.
Denne mangelen på respons gir foreldre og omsorgspersoner lite veiledning når de navigerer på en markedsplass som blir stadig mer fylt med komplekse, AI-drevne produkter. Bransjen står nå overfor utfordringen med å bygge tillit ved å bevise at AI-kompaniene er trygge, ikke bare smarte.