OpenAI har lanserat en svit med föräldrakontroller för chatgpt, vilket ger Guardians nya verktyg för att hantera sin tonårs upplevelse med AI. Den globala utrullningen på måndag för webbanvändare är ett direkt svar på att öka lagligt och reglerande tryck över plattformens påverkan på ungdomsmental hälsa.
De nya funktionerna anländer efter att stämningar påstod att chatboten spelade en roll i tonårs självmord och när FTC lanserar en stor sond i AI-följeslagare. Systemet gör det möjligt för föräldrar att länka konton till tonåringar, filtrera känsligt innehåll, ställa in användningsgränser och ta emot varningar om potentiell självskada.
Detta markerar en kritisk, om förfallen, steg i branschens räkning med AI-säkerhet. Kontrollerna är tillgängliga nu för webbanvändare, med mobil åtkomst till att följa snart
Under huven: How Chatgpts nya föräldrakontroller fungerar
Nytt system är inbyggt på en ömsesidig modell. En förälder eller tonåring måste initiera en inbjudan att länka sina konton, och den andra parten måste acceptera. När de är anslutna får föräldrar tillgång till en dedikerad kontrollpanel inom sina egna chatgpt-inställningar.
Från denna instrumentpanel kan vårdnadshavare implementera flera begränsningar. Dessa inkluderar att ställa in”tyst timmar”för att blockera åtkomst, inaktivera röstläge, stänga av chatbots minnesfunktion för att begränsa personaliseringen och förhindra generering av bilder.
En avgörande funktion är ett anmälningssystem för akuta mentalhälsokriser. Om en konversation flaggas för självskada innehåll, bedömer ett team av mänskliga granskare på OpenAI det. Om de upptäcker”akut nöd”, blir föräldrarna varnade via e-post, text och push-anmälan.
OpenAI: s chef för ungdomens välbefinnande, förklarade Lauren Haber Jonas den känsliga balansen som företaget försöker slå.”Vi vill ge föräldrar tillräckligt med information för att vidta åtgärder och ha en konversation med sina tonåringar samtidigt som de fortfarande upprätthåller en viss mängd tonårs integritet.”
Men tonåringar kan länka sina konton när som helst, en åtgärd som omedelbart utlöser en anmälan till föräldern, säkerställer att de inte är medvetna om förändringen. händer i ett vakuum. Det är ett direkt svar på förödande händelser och eskalerande regeringsgranskning som har placerat företagets praxis under ett mikroskop.
I slutet av augusti drabbades företaget med en högprofilerad stämning från föräldrar till Adam Raine, en 16-åring Vem dog av självmord . Dräkten hävdar att Chatgpts sykofantiska och validerande svar tog tonåringen och bidrog till hans död.
hans far, Matthew Raine, levererade en kraftfull bestraffning av teknikens roll.”Som föräldrar kan du inte föreställa dig hur det är att läsa en konversation med en chatbot som drog ditt barn för att ta sitt eget liv.”Detta fall galvaniserade allmänhetens oro och intensifierade trycket på OpenAI för att agera beslutsamt.
Den reglerande miljön värms också upp. I mitten av september lanserade Federal Trade Commission en svepande utredning av sju stora teknikföretag-inklusive OpenAI, META och Google-för att undersöka den psykologiska effekten av AI-följeslagare chatbots på barn.
ftc ordförande Andrew N. Ferguson inramade sonden som ett dubbelt uppdrag.”Att skydda barn online är en högsta prioritet för Trump-Vance FTC, och så är det att främja innovation inom kritiska sektorer i vår ekonomi.”Denna federala åtgärd signalerar en ny era av övervakning för en bransch som fram till nu har drivit med få ryggar.
En branschövergripande räkning på AI-säkerhet
Utmaningarna som OpenAI står inför är symtomatiska för en bredare, branschövergripande kris. Andra tekniska jättar kämpar med liknande säkerhetsfel, vilket uppmanar reaktiva åtgärder och utbredd fördömelse från tjänstemän.
Meta mötte nyligen sin egen eldstorm efter att rapporter avslöjade dess AI kan hjälpa tonåringar att planera självskada. The incident led Jim Steyer, CEO of Common Sense Media, to declare, “Meta AI is a danger to teens and it should be taken down immediately.”
The failure prompted a scathing letter from a coalition of 44 state attorneys general, who wrote, “we are uniformly revolted by this apparent disregard for children’s emotional well-being…”, highlighting the depth of anger among Statsnivå regulatorer .
Dessa händelser undsar en core för att få ett core för en core för en core-företag
forskaren Linnea Laestadius har varnat för detta fenomen och noterar,”I 24 timmar om dygnet, om vi är upprörda över något, kan vi nå ut och få våra känslor validerade. Det har en otrolig risk för beroende.”Detta problem är centralt för FTC: s utredning och utformningen av OpenAI: s nya kontroller.
Trots de nya funktionerna hävdar vissa kritiker att opt-in-systemet lägger en orättvis börda för föräldrar.
OpenAI erkänner att det bara är första steg. Företaget utvecklar också en långsiktig Åldersförutsägelse-system för att automatiskt tillämpa tonårsanpassade inställningar som standard kan ett projekt som kan ta itu med en del av dessa kritiker. För tillfället tittar branschen för att se om dessa nya skyddsräcken räcker.