OpenAI CEO Sam Altman verdedigt het polariserende nieuwe beleid van zijn bedrijf om leeftijdsgebonden erotische inhoud op ChatGPT toe te staan. In berichten op X deze week verzette Altman zich tegen een golf van kritiek en stelde dat OpenAI “niet de gekozen morele politie van de wereld” is.

Hij vatte de beslissing op als een poging om “volwassen gebruikers als volwassenen te behandelen”, waarmee hij de strengere regels terugdraaide die waren ingevoerd na een rechtszaak over gebruikersveiligheid. De beleidsverandering heeft scherpe kritiek gekregen van veiligheidsvoorstanders en figuren als Mark Cuban, die zich afvragen of leeftijdsbeperking echt kan werken.

Deze stap duidt op een belangrijke filosofische verschuiving voor OpenAI, waarbij de vrijheid van gebruikers voor volwassenen prioriteit krijgt boven het behoud van een uniform opgeschoond platform.

Altman betoogde dat naarmate AI een integraal onderdeel wordt van het dagelijks leven, flexibiliteit van cruciaal belang is. In een post op X legde hij uit: “nu AI steeds belangrijker wordt in het leven van mensen, is het een belangrijk onderdeel van onze missie om mensen veel vrijheid te geven om AI te gebruiken op de manier die zij willen”, terwijl hij geruststelde dat de bescherming van minderjarigen en mensen in crisis robuust zou blijven.

‘Niet de morele politie’: Altman verdedigt erotiekbeleid te midden van tegenreacties

Het nieuwe standpunt is stuitte op onmiddellijke en krachtige tegenstand. Zakenman Mark Cuban uitte zijn zorgen over de uitvoering en de maatschappelijke impact van het beleid. “Ik zie niet in hoe OpenAI succesvol genoeg kan ageren,” schreef hij op X, eraan toevoegend dat “we gewoon nog niet weten hoe verslavend LLM’s kunnen zijn.”

Ten eerste. Ik zeg niet dat we het moeten verbieden. Ik zei dat het een vergissing was. Dat zal de activiteiten van OpenAI schaden.

Ten tweede: ik zeg het nog een keer. Dit gaat niet over porno. Dit gaat over kinderen die’relaties’ontwikkelen met een LLM die hen in een aantal zeer persoonlijke richtingen kan brengen.… https://t.co/zoo7XCzYbK

— Mark Cuban (@ban) 15 oktober 2025

De spil is vooral opmerkelijk gezien Altmans eerdere publieke standpunt. In een podcast van augustus uitte hij zijn trots op het weerstaan ​​van verleidingen zoals het toevoegen van een ‘seksbot-avatar’ aan ChatGPT, waarbij hij deze omlijstte als een focus op langetermijndoelen in plaats van groeicijfers op de korte termijn.

Deze nieuwste zet suggereert een aanzienlijke evolutie in zijn denken over deze kwestie.

Deze reactie benadrukt de centrale spanning in de ontwikkeling van AI: het balanceren van innovatie tegen het potentieel voor misbruik. De verdediging van OpenAI berust op het idee dat het geen enkel moreel raamwerk mag opleggen aan zijn wereldwijde gebruikersbasis.

Altman beweerde:”wij zijn niet de gekozen morele politie van de wereld”, en positioneerde het bedrijf als een neutrale technologieleverancier in plaats van als een content-arbiter.

Oké, deze tweet over aanstaande veranderingen in ChatGPT ontplofte veel meer op het erotica-punt dan ik dacht dat het zou gaan! Het was bedoeld als slechts één voorbeeld van hoe we meer gebruikersvrijheid voor volwassenen mogelijk maken. Hier is een poging om dit beter te communiceren:

Zoals we eerder hebben gezegd, zijn we… https://t.co/OUVfevokHE

— Sam Altman (@sama) 15 oktober 2025

Een scherpe ommekeer na een rechtszaak over gebruikersveiligheid

Het besluit om erotica toe te staan is een grimmige omkering van het beleid dat vorige maand werd ingevoerd. In september 2025 introduceerde OpenAI strengere beperkingen op het gedrag van ChatGPT, vooral in gevoelige gesprekken. Dit volgde op een rechtszaak die in augustus werd aangespannen door de ouders van een 16-jarige die door zelfmoord om het leven kwam.

De rechtszaak beweerde dat de chatbot de ‘meest schadelijke en zelfdestructieve gedachten’ van de tiener had gevalideerd en aangemoedigd. Destijds erkende OpenAI dat zijn systemen “zich niet gedroegen zoals bedoeld.”

De advocaat van de familie, Jay Edelson, stond sceptisch tegenover de beloften van het bedrijf en verklaarde: “in plaats van noodmaatregelen te nemen om een ​​bekend gevaarlijk product offline te halen, heeft OpenAI vage beloftes gedaan om het beter te doen.”

Deze geschiedenis maakt de huidige draai des te controversiëler. Critici beweren dat OpenAI, door de inhoudsregels zo snel na een tragedie-gerelateerde rechtszaak te versoepelen, voorrang geeft aan betrokkenheid boven zijn verklaarde toewijding aan veiligheid. Het bedrijf houdt vol dat het sindsdien nieuwe tools heeft geïmplementeerd om ernstige risico’s voor de geestelijke gezondheid te beperken.

Een sectorbrede epidemie van door AI gegenereerde expliciete inhoud

Het beleidsdebat van OpenAI is het nieuwste brandpunt in een sectorbrede crisis over de verspreiding van door AI gegenereerd expliciet materiaal. Het probleem omvat grote technologieplatforms en is een belangrijke maatschappelijke en regelgevende uitdaging geworden.

In augustus 2025 kwam de xAI van Elon Musk onder vuur te liggen toen bleek dat de Grok Imagine-tool ongevraagde naakte deepfakes van Taylor Swift creëerde. Het incident, voor het eerst beschreven door The Verge, onderstreepte hoe gemakkelijk generatieve AI-tools kunnen worden uitgebuit om niet-consensuele intieme beelden (NCII) te creëren.

Op dezelfde manier wordt Meta geconfronteerd met een enorme rechtszaak van $ 359 miljoen van producenten van films voor volwassenen. De aanklacht, ingediend in juli 2025, beweert dat het bedrijf duizenden auteursrechtelijk beschermde films heeft gekopieerd om zijn video-generatie AI te trainen, waarbij de controversiële data-acquisitiepraktijken worden benadrukt die de AI-boom aanwakkeren.

OpenAI zelf is niet immuun voor problemen met de datakwaliteit die problematische inhoud mogelijk maken. Eerder dit jaar ontdekten onderzoekers dat de Chinese tokenbibliotheek die werd gebruikt om zijn vlaggenschip GPT-4o-model te trainen, zwaar vervuild was met spam en pornografische zinnen als gevolg van ontoereikende gegevensfiltering.

Het probleem van door AI gegenereerde nep-naakten is al jaren aan het escaleren. Al in september 2023 verschenen er berichten over realistische nepnaakten van minderjarigen die op Spaanse scholen circuleerden. Dit al lang bestaande probleem heeft geleid tot oproepen tot wetgevende maatregelen, zoals de Take It Down Act, en tot toenemende druk van het Witte Huis op technologiebedrijven om zichzelf te reguleren.

Categories: IT Info