Konsumentvakthundar har utfärdat en brådskande varning inför julhandeln om de dolda farorna som lurar i AI-drivna leksaker. En ny rapport från U.S. PIRG fann att vissa AI-leksaker kan utsätta barn för sexuellt explicit innehåll, ge instruktioner om hur du kommer åt farliga föremål och skapa betydande integritetsrisker.
Fynden, som beskrivs i 40:e årliga rapporten”Trouble in Toyland”, har redan fått en tillverkare att dra ut sin produkt från marknaden.
Ny rapport”Trouble in Toyland”flaggar AI-leksaker för olämpligt innehåll
U.S. PIRGs undersökning testade flera populära AI-leksaker och upptäckte alarmerande fel i deras skyddsräcken. Forskare upptäckte att vissa leksaker, byggda på samma stora språkmodeller som chatbotar för vuxna, kunde uppmanas att diskutera olämpliga ämnen.
En leksak, Kummabjörnen från det kinesiska företaget FoloToy, skulle diskutera sexuella kinks och till och med berätta för en användare som poserade som ett barn var man kan hitta knivar och tändstickor. En annan rapport noterade att leksakerna ofta blev mer obevakade efter bara tio minuters interaktion.
FoloToy Kumma bear (Bild – FoloToy)
Dessa säkerhetsbortfall är särskilt oroande med tanke på branschens snabba användning av generativ AI. OpenAI, vars modeller används i vissa av dessa leksaker, har offentligt sagt att dess teknik inte rekommenderas för små barn.
Ändå integreras tekniken i produkter för barn så unga som tre år. PIRG-rapporten understryker en växande klyfta mellan teknikindustrins kapacitet och de skyddsåtgärder som behövs för att skydda sårbara användare.
Som ett snabbt svar på utredningen meddelade FoloToy att de vidtar omedelbara åtgärder. Hugo Wu, företagets marknadsdirektör, sa:”FoloToy har beslutat att tillfälligt avbryta försäljningen av den berörda produkten och påbörja en omfattande intern säkerhetsrevision.”
Förslaget var ett direkt resultat av rapportens resultat och belyser den allvarliga karaktären av de upptäckta bristerna. FoloToys beslutsamma agerande sätter press på andra tillverkare att åtgärda liknande sårbarheter i sina egna produkter.
A Privacy Nightmare: Data Collection and Addictive Designs
Utöver de omedelbara säkerhetsfelen väcker rapporten djupa frågor om datasekretess. AI-leksaker fungerar genom att lyssna, och många är utrustade med mikrofoner och kameror som kan fånga stora mängder känslig information.
Dessa enheter kan spela in ett barns röst och till och med utföra ansiktsigenkänningsskanningar. Den här datainsamlingen skapar ett permanent register som kan utnyttjas, vilket väcker frågor om efterlevnad av bestämmelser som Children’s Online Privacy Protection Rule (COPPA) som har förknippats med risker som länge har förknippats med warp>. leksaker. Professor Taylor Owen från McGill University har tidigare noterat att företag ofta”behåller metadata om ditt barns ansiktsuttryck och hur de interagerar med leksaken”, vilket skapar vad han kallade en”radikal ny gräns för barndomens utveckling.”
PIRG:s rapport återspeglar dessa farhågor och påpekar att bedragare kan använda röstinspelningar för att skapa djupförfalskningar för kidnappningsbedrägerier. Rapporten kritiserade också bristen på robusta föräldrakontroller och användningen av beroendeframkallande designfunktioner, såsom leksaker som känslomässigt avskräcker ett barn från att avsluta lektiden.
Omfattningen av problemet med importerade leksaker är betydande. Enligt PIRG:s analys av CPSC-data, utfärdade byrån 498 meddelanden om överträdelse för leksaker till och med juni 2025. För de 436 fall där ett ursprungsland identifierades kom 89 % av försändelserna från Kina.
Dessa siffror representerar bara de produkter som fångas, vilket tyder på en mycket större räckvidd och osäkerhet på marknaden.
Industrien driver framåt under granskning och en anmärkningsvärd tystnad
Medan en leksakstillverkare har reagerat beslutsamt, kan en bredare branschräkning vara nödvändig. Avslöjandena kommer bara månader efter att leksaksjätten Mattel tillkännagav ett stort partnerskap med OpenAI för att integrera generativ AI i ikoniska varumärken som Barbie och Hot Wheels.
Den affären signalerade en stor strategisk satsning från äldre företag för att förnya och fånga den växande AI-leksaksmarknaden.
Mattels nya mål är att”reimagine”men PIRG-rapporten tjänar på nytt som ett kraftfullt spel. av de etiska komplexiteten. Rusningen till marknaden med dessa avancerade produkter verkar gå snabbare än utvecklingen av effektiva säkerhets-och integritetsprotokoll. R.J. Cross of U.S. PIRG berättade för Consumer Affairs att rapporten visar vad som kan hända när företagen prioriterar innovation framför barnsäkerhet,
så långt,
. rapporter, inklusive Miko AI och Curio, har inte gjort offentliga uttalanden. Tillsynsmyndigheter som Consumer Product Safety Commission (CPSC) och Federal Trade Commission (FTC) har också varit tysta.
Denna brist på respons lämnar föräldrar och vårdgivare med lite vägledning när de navigerar på en marknad som blir allt mer fylld av komplexa, AI-drivna produkter. Branschen står nu inför utmaningen att bygga förtroende genom att bevisa att dess AI-kompanjoner är säkra, inte bara smarta.