Federal Trade Commission dukker opp varmen på Big Tech over sikkerheten til AI Companion Chatbots. Torsdag lanserte byrået en formell undersøkelse av syv selskaper, inkludert giganter som Alphabet, Meta og Openai, for å granske den potensielle negative virkningen av teknologien på barn og tenåringer.

FTC krever å vite hvordan disse firmaene tester for sikkerhet, demper skade og håndterer brukerdata. Undersøkelsen følger en rekke offentlige kontroverser og søksmål som knytter href=”https://www.ftc.gov/news-egents/news/press-releases/2025/09/ftc-launches-inquiry-ai-chatbots-acting-companions”Target=”_ blank”> utstedt 6 (b) en verktøy for comming-ranging”> utstedt 6 (b) Instagram), Openai, Snap, Xai Corp., og karakterteknologier. Henvendelsen søker detaljert informasjon om alt fra inntektsgenerering til data til overholdelse av barns online personvern (Coppa). src=”https://winbuzzer.com/wp-content/uploads/2025/09/ai-chatbots-teens-child-safety.jpg”>

FTC-styreleder Andrew N. Ferguson innrammet sonden som en balanseringshandling. I en uttalelse sa han:”Å beskytte barn på nettet er en topp prioritet for Trump-Vance FTC, og det er også å fremme innovasjon i kritiske sektorer i økonomien vår.”Flyttingen signaliserer en betydelig opptrapping i forskriftsmessig tilsyn for et marked som har vokst med få rekkverk.

FTC krever svar fra syv tech-giganter

Hjertet av FEMT-ene.

Fordi de er designet for å kommunisere som en venn eller fortrolige, kan de be barn og tenåringer til å danne dype bindinger av tillit og emosjonell tilknytning, og skape en ny og og gi potensiell skade på en full måte å gi en fullført precy precy precy precy precy precy precy precy precy precy precy precy precy precy precy precy precy precy precy precy precy precy precy precy precy there poin there pors there pors there pors there pors there pors there pors there pors there pors thre s. Utganger, hvordan AI-tegn utvikles og godkjennes, og hvilke spesifikke trinn som tas for å måle, teste og overvåke for negative påvirkninger både før og etter at et produkt er distribuert til publikum.

utover teknologien, FTC-aksjene får informasjon om hvordan de får disse følgesvennene.

du bruker personopplysninger om å konkludere med å gjøre det. håndheve sine egne tjenestevilkår, for eksempel aldersbegrensninger. Dette dype dykket inn i mekanikken i AI-kameratskap har som mål å avdekke risikoen som ligger i systemer designet for å etterligne menneskelige forhold.

Det regulatoriske nedbrytningslandene, da teknologibransjen aggressivt presser AI-ledsagere som den neste grensen i brukeren som ofte er en Societal Loneliness. Allerede dyptgripende, med etiske og sikkerhetsproblemer som forventes å intensivere etter hvert som teknologien blir mer autonome og uforutsigbar.

Noen av de rikeste menneskene i verdens forkjemper denne teknologien. Elon Musk, for eksempel, har kunngjort en”følgesvenn”-funksjon for brukere av Xai’s Grok Chatbot. Tilsvarende har Meta-administrerende direktør Mark Zuckerberg hevdet at personalisert AI som forstår at brukere er fremtiden.

På en podcast tenkte han:”Jeg vil gjette at vi over tid vil finne ordforrådet som et samfunn for å være i stand til å artikulere hvorfor det er verdifullt og hvorfor menneskene som gjør disse tingene… er rasjonelle for å gjøre det.”

[[).push({});

Meta har møtt en lignende krise. Etter at en rapport avslørte at AI kunne hjelpe tenåringer med å planlegge selvskading, ble selskapet smalt av forkjemper for barnesikkerhet og sto overfor en etterforskning fra senator Josh Hawley.

Jim Steyer, administrerende direktør i Common Sense Media, var sløv, og sa:”Meta AI er en fare for å ha et spørsmål og det bør tas ned umiddelbart.”

er en fare for å bli en ære og den bør tas ned umiddelbart.”href=”https://oag.ca.gov/system/files/attachments/press-docs/ai%20chatbot_final%20%2844%29.pdf”Target=”_ blank”> Scathing Letter fra en koalisjon på 44 statsadvokat General . De skrev at”vi blir opprettet ensartet av denne tilsynelatende ignorering av barns emosjonelle velvære…”, og signaliserer utbredt alarm blant regulatorer på statlig nivå.

Som svar overhalt Meta raskt å ha en lover om å blokkere Sensitive Emner.

en krigsregler. disse teknologiene. Folkehelseforsker Linnea Laestadius fremhevet risikoen for emosjonell avhengighet,

Trenden strekker seg utover bare programvare. Mattels partnerskap med Openai for å lage en ‘AI Barbie’ viser hvordan denne teknologien beveger seg inn i den fysiske verden, og legger seg direkte inn i barns lek. Dette gjør behovet for robuste sikkerhetsprotokoller enda mer presserende.

FTCs undersøkelse er en klar advarsel til hele AI-industrien. Ettersom selskaper løper for å utvikle mer menneskelignende og engasjere AI, er de nå oppmerksom på at de vil bli holdt ansvarlige for sikkerhet og velvære for sine yngste brukere.