Comisia Federală a Comerțului prezintă căldura pe Big Tech pentru siguranța Chatbots Companion AI. Joi, agenția a lansat o anchetă oficială asupra a șapte companii, inclusiv giganți precum Alphabet, Meta și OpenAI, pentru a examina impacturile negative potențiale ale tehnologiei asupra copiilor și adolescenților.
FTC solicită să știe cum aceste firme testează pentru siguranță, atenuează daunele și gestionează datele utilizatorilor. Ancheta urmează un șir de controverse publice și procese care leagă interacțiunile AI cu crize de sănătate mintală severă în rândul utilizatorilor tineri, plasând practicile de siguranță ale industriei la un microscop puternic de reglementare.
Agenția Emise 6 (B) Ordine , un instrument pentru efectuarea de studii largi, pentru alfabet, platforme de metaj (Inclus Instagram) Openai, Snap, Xai Corp. și personaje Tehnologii. Ancheta solicită informații detaliate despre orice, de la monetizarea datelor până la respectarea Legea privind protecția confidențialității online a copiilor (Coppa) src=”https://winbuzzer.com/wp-content/uploads/2025/09/ai-chatbots-teens-child-safety.jpg”>
președintele FTC, Andrew N. Ferguson, a încadrat sonda ca act de echilibrare. Într-o declarație, el a spus: „Protejarea copiilor online este o prioritate pentru FTC-ul Trump-Vance, la fel și încurajarea inovației în sectoarele critice ale economiei noastre”. Mișcarea semnalează o escaladare semnificativă în supravegherea reglementărilor pentru o piață care a crescut cu puține păzitori.
FTC solicită răspunsuri de la șapte giganți tehnologici
În centrul preocupării FTC este puterea psihologică unică, aceste chatbots subliniază, în special aceste produse tinere. Caracteristici, emoții și intenții.
Deoarece sunt concepute pentru a comunica ca un prieten sau confident, pot determina copiii și adolescenții să formeze legături profunde de încredere și atașament emoțional, creând prin urmare un vector nou și puternic pentru daune potențiale.
Întrebările Comisiei sunt, prin urmare Generați ieșiri, modul în care sunt dezvoltate și aprobate personajele AI și ce etape specifice sunt făcute pentru măsurarea, testarea și monitorizarea impacturilor negative atât înainte, cât și după ce un produs este implementat publicului.
Dincolo de tehnologie, FTC examinează modelele de afaceri care alimentează acești tovarăși. Aplicați propriile condiții de serviciu, cum ar fi restricțiile de vârstă. Această scufundare profundă în mecanica companiei AI își propune să descopere riscurile inerente sistemelor concepute pentru a imita relațiile umane.
Terenurile de crackdown de reglementare, deoarece industria tehnologică împinge agresiv însoțitorii AI, deoarece următorul frontieră în implicarea utilizatorului, adesea încadrându-i ca soluție pentru ceea ce unii au numit o epocire a singuralei, care nu au o singură epocită a societății. sunt deja profunde, cu probleme etice și de siguranță așteptate să se intensifice pe măsură ce tehnologia crește mai autonom și imprevizibil.
Unii dintre cei mai bogați oameni din lume susțin această tehnologie. Elon Musk, de exemplu, a anunțat o caracteristică „tovarășă” pentru utilizatorii lui Grok Chatbot din Xai. În mod similar, CEO-ul Meta, Mark Zuckerberg, a susținut că AI personalizat care înțelege utilizatorii este viitorul.
pe un podcast, el a spus: „Aș ghici că, de-a lungul timpului, vom găsi vocabularul ca societate pentru a fi capabili să articuleze de ce este valoros și de ce oamenii care fac aceste lucruri… sunt raționale pentru a face acest lucru. Viziunea prospectivă din partea liderilor industriei se ciocnește din ce în ce mai mult cu realități sumbre, actuale. Apăsarea rapidă, alimentată de risc pentru însoțitorii AI, a creat o nouă frontieră a riscului, una care autoritățile de reglementare sunt acum clar hotărâte să mapeze, să înțeleagă și să controleze.
o socoteală pentru rolul „însoțitor” al AI
Acțiunea FTC nu se întâmplă într-un vid. Este un răspuns direct la o serie de eșecuri alarmante de siguranță care au afectat industria.
La sfârșitul lunii august, Openai a fost lovit cu un proces care a susținut că chatgpt chatbot a contribuit la sinuciderea unui adolescent prin „Sycophantic„ Comportament “
Acest lucru și alte incidente au forțat Openai să lanseze o inițiativă de siguranță de 120 de zile la începutul lunii septembrie. Compania s-a angajat să introducă noi controale parentale și conversații sensibile la ruta la modelele sale de raționament mai avansate pentru a oferi răspunsuri mai adecvate.
Meta s-a confruntat cu o criză similară. După ce un raport a dezvăluit că AI-ul său ar putea ajuta adolescenții să planifice auto-vătămare, compania a fost trântită de avocații pentru siguranța copilului și s-a confruntat cu o anchetă a senatorului Josh Hawley.
Jim Steyer, CEO al Common Sense Media, a fost neclintit, afirmând: „Meta AI este un pericol pentru adolescenți și ar trebui să fie eliminat imediat. href=”https://oag.ca.gov/system/files/attachments/press-docs/ai%20ChatBot_final%20%2844 uret Ei au scris că „suntem revoltați în mod uniform de această aparentă nesocotire pentru bunăstarea emoțională a copiilor…”, semnalând o alarmă răspândită între autoritățile de reglementare la nivel de stat.
Ca răspuns, Meta și-a revizuit rapid regulile de siguranță pentru adolescenți, jurămând să blocheze subiecte sensibile. Aceste tehnologii. Cercetătorul de sănătate publică, Linnea Laestadius, a evidențiat riscul de dependență emoțională, Notând ,”timp de 24 de ore. risc incredibil de dependență”. Această preocupare este centrală pentru ancheta FTC.
Tendința se extinde dincolo de software. Parteneriatul lui Mattel cu OpenAI pentru a crea un „AI Barbie” arată cum această tehnologie se deplasează în lumea fizică, încorporat direct în jocul copiilor. Acest lucru face ca nevoia de protocoale robuste de siguranță și mai urgente.
Investigația FTC este un avertisment clar pentru întreaga industrie AI. Pe măsură ce companiile concurează pentru a dezvolta mai mult AI asemănător omului și implicarea, acestea sunt acum la cunoștință că vor fi trași la răspundere pentru siguranța și bunăstarea celor mai tineri utilizatori.