En fempunktsplan for å forme AI-sikkerhetsnormene /A-sikkerhetsnormene href=”https://cdn.openai.com/pdf/OAI%20Teen%20Safety%20Blueprint.pdf”target=”_blank”>blåkopi er fem kjerneprinsipper OpenAI argumenterer for at alle AI-selskaper bør ta i bruk.
Bedriften posisjonerer dokumentet ikke bare som intern politikk, men som et utgangspunkt for nye lovgivere. For det første krever det identifisering av tenåringer på plattformer som bruker «personvernbeskyttende, risikobaserte aldersvurderingsverktøy» for å gi distinkte, alderstilpassede opplevelser.
Som selskapet sier: «Vi mener ChatGPT bør møte dem der de er: måten ChatGPT reagerer på en 15-åring på bør være forskjellig fra en voksen etterspørsel,
.» spesifikke, strenge retningslinjer for å redusere risikoen for brukere under 18 år. I henhold til planen skal AI-systemer utformes slik at de ikke avbilder selvmord eller selvskading, og de må «forby grafisk eller oppslukende (dvs. rollespill) intimt og voldelig innhold.»
Retningslinjene tar også sikte på å forhindre at AI-er som skader kroppen, fremstår som forsterkende, forsterker kroppen. sammenligninger, eller restriktiv kostholdsveiledning.”
For det tredje, OpenAI tar til orde for å velge en trygg U18-opplevelse når det er tvil om en brukers alder, spesielt for uautentiserte brukere. Dette prioriterer sikkerhet selv om det hindrer en voksens bruk av et gratis produkt.
For det fjerde legger planen vekt på å styrke familier med tilgjengelig foreldrekontroll, og bygger på funksjoner selskapet nylig lanserte. Disse kontrollene lar foresatte koble sammen kontoer, angi «blackout-timer», administrere innstillinger for personvern for data og motta varsler hvis en tenårings aktivitet tyder på en intensjon om å skade seg selv.
Til slutt krever det utforming for velvære ved å bygge inn funksjoner basert på mental helseforskning. OpenAIs dokument rammer dette inn som et grunnleggende skifte i prioriteringer.”For tenåringer prioriterer vi sikkerhet foran personvern og frihet. Dette er en ny og kraftig teknologi, og vi mener at mindreårige trenger betydelig beskyttelse.”
Et proaktivt trekk midt i en regulatorisk og juridisk beleiring
OpenAIs klare forsøk på å kontrollere planen står overfor en flodbølge av juridisk og regulatorisk gransking. Selskapet forsvarer seg for øyeblikket mot en høyprofilert rettssak om urettmessig død fra foreldrene til en tenåring som døde av selvmord.
Tenåringens far, Matthew Raine, utstedte en kraftig irettesettelse, og sa: «Som foreldre kan dere ikke forestille dere hvordan det er å lese en samtale med en chatbot som gjorde barnet ditt til å ta livet av seg selv og sikkerheten i offentligheten
.» praksis under et mikroskop.
Regjeringspress øker fra flere retninger. I september lanserte US Federal Trade Commission en stor undersøkelse av virkningen av AI-chatboter på tenåringer, rettet mot OpenAI og seks andre teknologigiganter.
FTC-styreleder Andrew N. Ferguson beskrev undersøkelsen som en balansegang: «å beskytte barn på nettet er en toppprioritet for Trump-Vance som fremmer FTC, økonomien vår
.»
og føderale lovgivere beveger seg også aggressivt. I California undertegnet guvernør Gavin Newsom lovgivningen SB 243 i oktober 243 i første-in-a> for AI chatbots.
Loven pålegger at operatører gir tilbakevendende varsler som minner mindreårige om at de snakker med en AI, blokkerer farlig innhold og gir familier en privat handlingsrett for å saksøke utviklere som ikke er i samsvar.
Forfatteren av lovforslaget, senator Steve Padilla, hadde tidligere hevdet at”Big Tech-politiet har bevist at de gang på gang ikke kan stole på seg selv.”På føderalt nivå introduserte en todelt gruppe av amerikanske senatorer GUARD Act i slutten av oktoberThi, foreslo forbud mot enda lenger ut.
følgesvenner for mindreårige og skaper nye strafferettslige forpliktelser for selskaper hvis AI produserer ulovlig innhold for mindreårige brukere.
I sin blåkopi presser OpenAI tilbake mot narrativet om passivitet, og fremhever eksisterende sikkerhetstiltak. Selskapet bemerket at det bare i første halvdel av 2025 rapporterte mer enn 75 000 netttips av AI-generert materiale om seksuelle overgrep mot barn til myndighetene.
Controversial ‘Safety aB Holdning
Allikevel, siden OpenAI posisjonerer seg som en leder innen tenåringssikkerhet, må den også kjempe med sine egne motstridende offentlige uttalelser og retningslinjer. Disse meldingene om sikkerhet står i sterk kontrast til selskapets nylige endringer i retningslinjene.
Siste måned forsvarte administrerende direktør Sam Altman en kontroversiell beslutning om å tillate aldersbegrenset erotisk innhold på ChatGPT. Han presset tilbake mot kritikk ved å erklære,”vi er ikke verdens valgte moralpoliti.”Flyttingen, som vakte bekymring fra skikkelser som Mark Cuban, skapte en oppfatning av motstridende prioriteringer i selskapet.
The Teen Safety Blueprint kan sees på som den siste i en rekke hurtigskytende initiativer designet for å demonstrere en forpliktelse til sikkerhet. I slutten av september lanserte selskapet sin pakke med foreldrekontroll.
Bare to uker senere kunngjorde det dannelsen av et ekspertråd på åtte medlemmer for å gi råd om velvære og mental helse.
Disse utfordringene er ikke unike for OpenAI, og reflekterer et bredere, bransjeomfattende regnestykke. Konkurrenter som Meta står overfor sine egne juridiske kriser angående tenåringssikkerhet. En D.C.-domstol påberopte nylig det sjeldne unntaket for kriminalitetssvindel for å avgjøre at Meta ikke kunne skjule intern skadeforskning for tenåringer bak advokat-klient-privilegier.
Retten fant bevis for at advokater rådet forskere til å endre funnene for å begrense ansvar, og validerte varsleres påstander om en”plausibel benektelse”-strategi. Ved å frigi planen, gjør OpenAI et strategisk spill for å definere vilkårene for AI-sikkerhet, i håp om å forme reglene før regulatorer og domstoler pålegger strengere regler.