OpenAI släppte sin”Teen Safety Blueprint”på torsdagen, ett nytt ramverk utformat för att skydda unga AI-användare.

Förslaget är ett direkt svar på det intensiva juridiska och statliga trycket som San Francisco-företaget står inför. OpenAI navigerar i en undersökning från Federal Trade Commission, en ny kalifornisk chatbotlag och stämningar som kopplar dess ChatGPT-verktyg till självskada av tonåringar.

För att komma före krisen, föreslår företaget fem grundläggande säkerhetsprinciper. Dessa inkluderar bättre åldersdetektering och standardskydd för minderåriga. OpenAI hoppas att denna proaktiva plan kommer att forma framtida branschregler och ta itu med växande säkerhetsproblem.

En fempunktsplan för att forma AI-säkerhetsnormernas hjärta

href=”https://cdn.openai.com/pdf/OAI%20Teen%20Safety%20Blueprint.pdf”target=”_blank”>blueprint är fem kärnprinciper OpenAI hävdar att alla AI-företag bör ta till sig.

Företaget positionerar dokumentet inte bara som intern policy utan som en utgångspunkt för nya lagstiftare. För det första kräver det att man identifierar tonåringar på plattformar som använder”integritetsskyddande, riskbaserade verktyg för åldersuppskattning”för att ge distinkta, åldersanpassade upplevelser.

Som företaget säger,”Vi anser att ChatGPT bör möta dem där de är: sättet ChatGPT svarar på en 15-åring borde skilja sig från hur det efterfrågar en vuxen.”

specifika, strikta policyer för att minska riskerna för användare under 18. Enligt ritningen ska AI-system utformas för att inte avbilda självmord eller självskada, och de måste”förbjuda grafiskt eller uppslukande (d.v.s. rollspel) intimt och våldsamt innehåll.”

Policinerna syftar också till att förhindra att AI:s skadliga kroppar uppträder som förstärkande, kroppsbetyg och idealiskt beteende. jämförelser, eller restriktiv kostcoachning.”

För det tredje förespråkar OpenAI för att inte använda en säker U18-upplevelse närhelst en användares ålder är osäker, särskilt för oautentiserade användare. Detta prioriterar säkerhet även om det hindrar en vuxen från att använda en gratis produkt.

För det fjärde betonar planen att ge familjer tillgång till föräldrakontroller, som bygger på funktioner som företaget nyligen lanserade. Dessa kontroller gör det möjligt för vårdnadshavare att länka konton, ställa in”blackout-timmar”, hantera datasekretessinställningar och ta emot varningar om en tonårings aktivitet tyder på en avsikt att skada sig själv.

Slutligen kräver det design för välbefinnande genom att bädda in funktioner som är informerade om mentalvårdsforskning. OpenAI:s dokument ramar in detta som en grundläggande förändring av prioriteringar.”För tonåringar prioriterar vi säkerhet framför integritet och frihet. Det här är en ny och kraftfull teknik, och vi tror att minderåriga behöver ett betydande skydd.”

Ett proaktivt drag mitt i en regulatorisk och juridisk belägring

Inför en flodvåg av juridisk och regulatorisk granskning är OpenAI:s tydliga försök att kontrollera planen. Företaget försvarar sig för närvarande mot en uppmärksammad rättegång om dödsfall från föräldrarna till en tonåring som dog av självmord.

Tonåringens far, Matthew Raine, utfärdade en kraftfull tillrättavisning och sa:”Som föräldrar kan ni inte föreställa er hur det är att läsa en konversation med en chatbot som gjorde att ditt barn tog sitt eget liv och satte oro över säkerheten för allmänheten

.”övar under ett mikroskop.

Regeringstrycket eskalerar från flera håll. I september lanserade den amerikanska federala handelskommissionen en stor undersökning av effekterna av AI-chattbotar på tonåringar, med inriktning på OpenAI och sex andra teknikjättar.

FTC-ordförande Andrew N. Ferguson beskrev utredningen som en balansgång:”att skydda barn online är en högsta prioritet för Trump-Vance som främjar vår innovationssektor i vår ekonomi, och

är därför viktig.”och federala lagstiftare rör sig också aggressivt. I Kalifornien undertecknade guvernör Gavin Newsom lagstiftningen SB 243 i oktober 243, inför den första lagen för AI-chatbots.

Lagen kräver att operatörer tillhandahåller återkommande varningar som påminner minderåriga om att de pratar med en AI, blockerar farligt innehåll och ger familjer en privat handlingsrätt för att stämma utvecklare som inte uppfyller kraven.

Författaren till lagförslaget, senator Steve Padilla, hade tidigare hävdat att”Big Tech-polisen inte har bevisat att de gång på gång kan lita på dem själva.”På federal nivå införde en tvåpartisk grupp amerikanska senatorer GUARD Act i slutet av oktoberThat, föreslog att förbudet till och med utgår ytterligare.

följeslagare för minderåriga och skapa nya straffrättsliga skyldigheter för företag vars AI producerar olagligt innehåll för minderåriga användare.

I sin plan trycker OpenAI tillbaka mot berättelsen om passivitet och lyfter fram befintliga säkerhetsåtgärder. Företaget noterade att det bara under första halvåret 2025 rapporterade mer än 75 000 cybertips av AI-genererat material om sexuella övergrepp mot barn till myndigheterna.

Controversal Safety aB Ställning

Men eftersom OpenAI positionerar sig som en ledare inom säkerhet för tonåringar, måste den också kämpa med sina egna motstridiga offentliga uttalanden och policyer. Dessa meddelanden om säkerhet framåt står i skarp kontrast till företagets senaste policyförändringar.

Förra månaden försvarade VD Sam Altman ett kontroversiellt beslut att tillåta åldersbegränsat erotiskt innehåll på ChatGPT. Han stötte tillbaka mot kritik genom att förklara,”vi är inte världens valda moralpolis.”Flytten, som väckte oro från personer som Mark Cuban, skapade en uppfattning om motstridiga prioriteringar inom företaget.

The Teen Safety Blueprint kan ses som den senaste i en serie av snabba initiativ utformade för att visa ett engagemang för säkerhet. I slutet av september lanserade företaget sin uppsättning föräldrakontroller.

Bara två veckor senare tillkännagav det bildandet av ett expertråd med åtta medlemmar för att ge råd om välbefinnande och mental hälsa.

Dessa utmaningar är inte unika för OpenAI, vilket speglar en bredare, branschomfattande uppfattning. Konkurrenter som Meta står inför sina egna juridiska kriser när det gäller tonåringars säkerhet. En domstol i DC åberopade nyligen det sällsynta brottsbedrägeriundantaget för att avgöra att Meta inte kunde dölja intern forskning om tonåringar bakom privilegier för advokat-klient.

Rätten fann bevis för att advokater rådde forskare att ändra iakttagelser för att begränsa ansvaret, vilket validerade whistleblower-påståenden om en strategi för”plausibel förnekelse”. Genom att släppa sin ritning gör OpenAI ett strategiskt spel för att definiera villkoren för AI-säkerhet, i hopp om att forma reglerna innan tillsynsmyndigheter och domstolar inför strängare sådana.

Categories: IT Info