Câinii de pază a consumatorilor au emis un avertisment urgent înainte de sezonul cumpărăturilor de sărbători cu privire la pericolele ascunse care pândesc în jucăriile bazate pe inteligență artificială. Un nou raport de la U.S. PIRG a constatat că unele jucării cu inteligență artificială pot expune copiii la conținut sexual explicit, pot oferi instrucțiuni despre accesarea obiectelor periculoase și pot crea riscuri semnificative pentru confidențialitate.

Descoperirile, detaliate în al 40-lea raport anual „Probleme în Țara jucăriilor”, au determinat deja un producător să-și retragă produsul de pe piață.

Noul raport „Probleme în Țara jucăriilor” semnalează jucăriile AI pentru conținut inadecvat

S.U.A. Investigația PIRG a testat mai multe jucării populare AI și a descoperit defecțiuni alarmante în balustradele lor de siguranță. Cercetătorii au descoperit că unele jucării, construite pe aceleași modele de limbaj mari ca și chatbot-urile pentru adulți, ar putea fi determinate să discute subiecte nepotrivite.

O jucărie, ursul Kumma de la compania chineză FoloToy, ar discuta despre situații sexuale și chiar spunea unui utilizator care se dădea drept copil unde să găsească cuțite și chibrituri. Un alt raport a remarcat că jucăriile au devenit adesea mai nepăzite după doar zece minute de interacțiune.

FoloToy Kumma urs (Imagine – FoloToy)

Aceste erori de siguranță sunt deosebit de îngrijorătoare, având în vedere adoptarea rapidă de către industrie a IA generativă. OpenAI, ale cărui modele sunt folosite în unele dintre aceste jucării, a declarat public că tehnologia sa nu este recomandată copiilor mici.

Cu toate acestea, tehnologia este integrată în produse pentru copii de până la trei ani. Raportul PIRG subliniază un decalaj tot mai mare între capacitățile industriei tehnologice și garanțiile necesare pentru a proteja utilizatorii vulnerabili.

Într-un răspuns rapid la investigație, FoloToy a anunțat că ia măsuri imediate. Hugo Wu, directorul de marketing al companiei, a declarat: „FoloToy a decis să suspende temporar vânzările produsului afectat și să înceapă un audit intern cuprinzător de siguranță.”

Mișcarea a fost un rezultat direct al constatărilor raportului și evidențiază natura gravă a defectelor descoperite. Acțiunea decisivă a FoloToy pune presiune asupra altor producători pentru a aborda vulnerabilități similare din propriile lor produse.

Un coșmar de confidențialitate: colectarea datelor și designuri dependente

Dincolo de eșecurile imediate de siguranță, raportul ridică întrebări profunde despre confidențialitatea datelor. Jucăriile AI funcționează ascultând, iar multe sunt echipate cu microfoane și camere care pot capta cantități mari de informații sensibile.

Aceste dispozitive pot înregistra vocea unui copil și chiar pot efectua scanări de recunoaștere facială. Această colectare de date creează o înregistrare permanentă care ar putea fi exploatată, ridicând semne de întrebare cu privire la respectarea unor reglementări precum Regulă de protecție a confidențialității online a copiilor (COPPA), care este mult timp însoțită de riscurile asociate

. jucării conectate. Profesorul Taylor Owen de la Universitatea McGill a remarcat anterior că companiile „păsc adesea metadatele despre expresiile faciale ale copilului tău și despre modul în care acesta interacționează cu jucăria”, creând ceea ce el a numit „o nouă frontieră radicală în dezvoltarea copilăriei”.

Raportul PIRG reflectă aceste preocupări, subliniind că escrocii ar putea folosi înregistrări vocale pentru a crea deepfakes pentru escrocherii de răpire. Raportul a criticat, de asemenea, lipsa controalelor parentale robuste și utilizarea unor caracteristici de design care creează dependență, cum ar fi jucăriile care descurajează emoțional un copil să pună capăt jocului.

Amploarea problemei cu jucăriile importate este semnificativă. Conform analizei PIRG a datelor CPSC, agenția a emis 498 de notificări de încălcare pentru jucării până în iunie 2025. Pentru cele 436 de cazuri în care a fost identificată o țară de origine, 89% din transporturi au venit din China.

Aceste cifre reprezintă doar produsele care sunt capturate, sugerând o problemă mult mai mare cu o piață nereglementată și nesigură.

Industria avansează pe fondul unui control și al unei tăceri notabile

În timp ce un producător de jucării a răspuns decisiv, poate fi necesară o evaluare mai amplă a industriei. Dezvăluirile au loc la doar câteva luni după ce gigantul de jucării Mattel a anunțat un parteneriat major cu OpenAI pentru a integra AI generativă în mărci emblematice precum Barbie și Hot Wheels.

Această înțelegere a semnalat un impuls strategic major din partea companiilor vechi de a inova și de a captura piața în creștere a jucăriilor AI.

Scopul Mattel este de a „reimaginea noi forme de joc puternic, dar reimagina noile forme ale jocului PI, dar reînnoiesc PI. complexitățile etice implicate. Graba pe piață cu aceste produse avansate pare să depășească dezvoltarea unor protocoale eficiente de siguranță și confidențialitate. R.J. Cross of U.S. PIRG a declarat pentru Consumer Affairs că raportul arată ce se poate întâmpla atunci când inovarea, siguranța copiilor

așa departe, prioritizează alte companii.

pătă prioritizează alte companii. producătorii numiți în rapoarte, inclusiv Miko AI și Curio, nu au emis declarații publice. Agențiile de reglementare precum Comisia pentru Siguranța Produselor de Consum (CPSC) și Comisia Federală pentru Comerț (FTC) au rămas, de asemenea, tăcute.

Această lipsă de răspuns lasă părinților și îngrijitorilor puține îndrumări în timp ce navighează pe o piață din ce în ce mai plină de produse complexe, bazate pe inteligență artificială. Industria se confruntă acum cu provocarea de a construi încredere, demonstrând că tovarășii săi AI sunt în siguranță, nu doar inteligenți.