OpenAI heeft donderdag zijn’Teen Safety Blueprint’vrijgegeven, een nieuw raamwerk dat is ontworpen om jonge AI-gebruikers te beschermen.

Deze stap is een directe reactie op de intense juridische en overheidsdruk waarmee het bedrijf uit San Francisco wordt geconfronteerd. OpenAI volgt een onderzoek van de Federal Trade Commission, een nieuwe chatbotwet in Californië en rechtszaken die de ChatGPT-tool in verband brengen met zelfbeschadiging onder tieners.

Om de crisis voor te zijn, stelt het bedrijf vijf kernveiligheidsprincipes voor. Deze omvatten betere leeftijdsdetectie en standaardbescherming voor minderjarigen. OpenAI hoopt dat dit proactieve plan toekomstige industrieregels vorm zal geven en de groeiende veiligheidsproblemen zal aanpakken.

Een vijfpuntenplan om AI-veiligheidsnormen vorm te geven

In het hart van de blauwdruk zijn vijf kernprincipes die volgens OpenAI alle AI-bedrijven zouden moeten overnemen.

Het bedrijf positioneert het document niet alleen als intern beleid, maar ook als startpunt voor wetgevers die nieuwe regelgeving opstellen. Ten eerste roept het op tot het identificeren van tieners op platforms met behulp van ‘privacybeschermende, op risico gebaseerde leeftijdsschattingstools’ om onderscheidende, bij hun leeftijd passende ervaringen te bieden.

Zoals het bedrijf stelt: “Wij zijn van mening dat ChatGPT hen moet ontmoeten waar ze zijn: de manier waarop ChatGPT reageert op een 15-jarige moet verschillen van de manier waarop het reageert op een volwassene.”

Ten tweede vereist het raamwerk specifiek, strikt beleid om de risico’s voor gebruikers daaronder te beperken. 18. Volgens de blauwdruk moeten AI-systemen zo worden ontworpen dat ze geen zelfmoord of zelfbeschadiging weergeven, en moeten ze “expliciete of meeslepende (d.w.z. rollenspellen) intieme en gewelddadige inhoud verbieden.”

Het beleid is er ook op gericht om te voorkomen dat de AI “schadelijke lichaamsidealen en-gedragingen versterkt door middel van uiterlijkbeoordelingen, lichaamsvergelijkingen of restrictieve dieetcoaching.”

Ten derde pleit OpenAI voor het standaard kiezen voor een veilige veilige omgeving. U18-ervaring wanneer de leeftijd van een gebruiker twijfelachtig is, vooral voor niet-geverifieerde gebruikers. Dit geeft prioriteit aan veiligheid, zelfs als dit het gebruik van een gratis product door volwassenen belemmert.

Ten vierde legt de blauwdruk de nadruk op het versterken van gezinnen met toegankelijk ouderlijk toezicht, voortbouwend op functies die het bedrijf onlangs heeft gelanceerd. Met deze controles kunnen voogden accounts koppelen,’blackout-uren’instellen, instellingen voor gegevensprivacy beheren en waarschuwingen ontvangen als de activiteit van een tiener de intentie tot zelfbeschadiging suggereert.

Tenslotte vraagt ​​het om ontwerpen voor welzijn door functies in te bouwen die zijn gebaseerd op onderzoek naar de geestelijke gezondheidszorg. Het document van OpenAI omschrijft dit als een fundamentele verschuiving in prioriteiten.”Voor tieners geven we prioriteit aan veiligheid boven privacy en vrijheid. Dit is een nieuwe en krachtige technologie, en we geloven dat minderjarigen aanzienlijke bescherming nodig hebben.”

Een proactieve stap te midden van een regelgevende en juridische belegering

Geconfronteerd met een vloedgolf van juridisch en regelgevend toezicht, is de blauwdruk van OpenAI een duidelijke poging om het verhaal te beheersen. Het bedrijf verdedigt zichzelf momenteel tegen een spraakmakende rechtszaak wegens onrechtmatige dood van de ouders van een tiener die door zelfmoord is omgekomen.

De vader van de tiener, Matthew Raine, gaf een krachtige berisping en zei:”Als ouders kun je je niet voorstellen hoe het is om een gesprek te lezen met een chatbot die je kind heeft voorbereid om zichzelf van het leven te beroven.”

Die zaak wekte publieke bezorgdheid op en plaatste de veiligheidspraktijken van het bedrijf onder een microscoop.

De druk van de overheid escaleert vanuit meerdere richtingen. In september lanceerde de Amerikaanse Federal Trade Commission een groot onderzoek naar de impact van AI-chatbots op tieners, gericht op OpenAI en zes andere technologiegiganten.

FTC-voorzitter Andrew N. Ferguson omschreef het onderzoek als een evenwichtsoefening: “het beschermen van kinderen online is een topprioriteit voor de Trump-Vance FTC, en dat geldt ook voor het bevorderen van innovatie in cruciale sectoren van onze economie.”

State-en federale wetgevers gaan ook agressief te werk. In Californië heeft gouverneur Gavin Newsom SB 243 op 13 oktober ondertekend, waarmee’first-in-the-nation’-regels voor AI zijn opgesteld chatbots.

De wet schrijft voor dat operators terugkerende waarschuwingen geven om minderjarigen eraan te herinneren dat ze met een AI praten, gevaarlijke inhoud blokkeren en families een privérecht van actie bieden om niet-conforme ontwikkelaars aan te klagen.

De auteur van het wetsvoorstel, senator Steve Padilla, had eerder betoogd dat”Big Tech keer op keer heeft bewezen dat ze niet kunnen worden vertrouwd om zichzelf te controleren.”Op federaal niveau heeft een tweeledige groep Amerikaanse senatoren eind oktober de GUARD Act ingevoerd.

Dat wetsvoorstel gaat zelfs nog verder en stelt een regelrechte wet voor verbod op AI-metgezellen voor minderjarigen en het creëren van nieuwe strafrechtelijke aansprakelijkheid voor bedrijven waarvan de AI illegale inhoud voor minderjarige gebruikers produceert.

In zijn blauwdruk verzet OpenAI zich tegen het verhaal van passiviteit en benadrukt de bestaande veiligheidsmaatregelen. Het bedrijf merkte op dat het alleen al in de eerste helft van 2025 meer dan 75.000 cybertips van door AI gegenereerd materiaal over seksueel kindermisbruik aan de autoriteiten heeft gerapporteerd.

Evenwicht tussen veiligheid en een controversieel standpunt van de morele politie

Maar omdat OpenAI zichzelf positioneert als leider op het gebied van tienerveiligheid, moet het ook kampen met zijn eigen tegenstrijdige publieke verklaringen en beleid. Deze op veiligheid gerichte berichten staan ​​in schril contrast met de recente beleidswijzigingen van het bedrijf.

Vorige maand verdedigde CEO Sam Altman een controversieel besluit om leeftijdsgebonden erotische inhoud op ChatGPT toe te staan. Hij weerstond de kritiek door te verklaren: “wij zijn niet de gekozen morele politie van de wereld.” Deze stap, die zorgen baarde bij figuren als Mark Cuban, creëerde een perceptie van tegenstrijdige prioriteiten binnen het bedrijf.

De Teen Safety Blueprint kan worden gezien als de nieuwste in een reeks snelvuurinitiatieven die zijn ontworpen om blijk te geven van toewijding aan veiligheid. Eind september introduceerde het bedrijf zijn reeks ouderlijk toezicht.

Slechts twee weken later kondigde het de oprichting aan van een achtkoppige raad van deskundigen om advies te geven over welzijn en geestelijke gezondheid.

Deze uitdagingen zijn niet uniek voor OpenAI en weerspiegelen een bredere, sectorbrede afrekening. Concurrenten als Meta worden geconfronteerd met hun eigen juridische crises op het gebied van de veiligheid van tieners. Een rechtbank in D.C. beriep zich onlangs op de zeldzame uitzondering op het gebied van misdaadfraude om te oordelen dat Meta het onderzoek naar interne schade aan tieners niet kon verbergen achter het privilege van advocaat en cliënt.

De rechtbank vond bewijs dat advocaten onderzoekers adviseerden hun bevindingen te wijzigen om de aansprakelijkheid te beperken, waarmee klokkenluidersclaims van een “plausibele ontkenningsstrategie” werden gevalideerd. Door zijn blauwdruk vrij te geven, doet OpenAI een strategische poging om de voorwaarden voor AI-veiligheid te definiëren, in de hoop de regels vorm te geven voordat toezichthouders en rechtbanken strengere regels opleggen.

Categories: IT Info