OpenAI heeft een nieuw expertpanel opgericht om te adviseren over AI-veiligheid. Het bedrijf kondigde dinsdag de achtkoppige “Expert Council on Well-Being and AI” aan. De groep zal helpen bij het begeleiden van de gezondheids-en welzijnsaspecten van tools als ChatGPT en Sora. Deze stap is een duidelijk antwoord op de toenemende druk van het publiek en de overheid.
In september begon de Amerikaanse Federal Trade Commission een groot onderzoek naar het effect van AI op tieners. Het bedrijf wordt ook geconfronteerd met een rechtszaak die de chatbot in verband brengt met de zelfmoord van een tiener. De nieuwe raad is de laatste stap van OpenAI om te laten zien dat het deze veiligheidsproblemen serieus neemt.
Een directe reactie op regelgevende en juridische druk
De timing van deze aankondiging is geen toeval. Het volgt op maanden van intensief onderzoek. Het FTC’s ingrijpende onderzoek naar zeven technologiegiganten, waaronder OpenAI, luidde een nieuw tijdperk van regelgevend toezicht in voor de snelgroeiende markt voor AI-companions.
FTC-voorzitter Andrew N. Ferguson omschreef het onderzoek als een evenwichtsoefening en stelde: “Het online beschermen van kinderen is een topprioriteit voor de Trump-Vance FTC, en dat geldt ook voor het bevorderen van innovatie in cruciale sectoren van onze economie.”Door deze federale actie werd de hele sector ervan op de hoogte gebracht dat het tijdperk van werken met weinig vangrails voorbij was.
De juridische druk is net zo groot. In augustus werd OpenAI getroffen door een rechtszaak wegens onrechtmatige dood van de ouders van een tiener die door zelfmoord om het leven kwam. Zijn vader, Matthew Raine, gaf een krachtige berisping en zei:”Als ouders kun je je niet voorstellen hoe het is om een gesprek te lezen met een chatbot die je kind ertoe aanzet zichzelf van het leven te beroven.”Deze zaak wakkerde de publieke bezorgdheid aan en versterkte de roep om actie.
Deze gebeurtenissen maken deel uit van een patroon van veiligheidstekortkomingen die de sector teisteren. Meta werd geconfronteerd met een soortgelijke crisis nadat berichten waren dat de AI tieners kon helpen bij het plannen van zelfbeschadiging. Het incident bracht Jim Steyer, CEO van Common Sense Media, ertoe te verklaren: “Meta AI is een gevaar voor tieners en moet onmiddellijk worden verwijderd.”
Een coalitie van 44 procureurs-generaal herhaalde deze verontwaardiging in een vernietigende brief, waarin staat:”we zijn uniform in opstand tegen deze schijnbare minachting voor het emotionele welzijn van kinderen…”De wijdverbreide veroordeling door de staat en de federale overheid niveaus hebben technologiebedrijven gedwongen te reageren.
Maak kennis met de Expert Council on Well-Being and AI
De nieuwe raad van OpenAI is een direct antwoord op deze uitdagingen. Het bedrijf kondigde de uit acht leden bestaande”Expert Council on Well-Being and AI” aan om zijn werk aan producten als ChatGPT en Sora te begeleiden. Het formele mandaat is om advies te geven, kritische vragen te stellen en te helpen vaststellen hoe gezonde interacties met AI eruit moeten zien voor gebruikers van alle leeftijden.
De groep bestaat uit leidende figuren in de psychologie, psychiatrie en mens-computerinteractie. Tot de leden behoren experts als Dr. David Bickham van het Boston Children’s Hospital, professor Andrew Przybylski van de Universiteit van Oxford, en Dr. Sara Johansen, oprichter van Stanford’s Digital Mental Health Clinic.
Volgens OpenAI is de raad officieel zijn werk begonnen met een persoonlijke sessie en zal hij regelmatig check-ins en vergaderingen houden. Tijdens deze sessies worden complexe onderwerpen onderzocht, zoals hoe AI zich in gevoelige situaties moet gedragen en welke vangrails gebruikers het beste kunnen ondersteunen. De groep zal ook onderzoeken hoe AI positief kan bijdragen aan het welzijn.
Dit formaliseert een relatie die eerder dit jaar begon. OpenAI bevestigde dat het informeel met veel van deze experts heeft geraadpleegd tijdens de ontwikkeling van het onlangs gelanceerde ouderlijk toezicht. Hun feedback heeft er specifiek toe bijgedragen dat de toon van de noodmeldingen’zorgzaam en respectvol is voor zowel tieners als hun familieleden’.
Deze controles, die eind september werden ingevoerd, waren een cruciale eerste stap. Het systeem maakt gebruik van een wederzijds opt-in-model en geeft voogden een dashboard om ‘stille uren’ in te stellen, de stemmodus uit te schakelen en geheugenfuncties uit te schakelen. Een belangrijk kenmerk is een waarschuwingssysteem dat ouders op de hoogte stelt als een gesprek wordt gemarkeerd wegens acute zelfbeschadiging nadat het is beoordeeld door menselijke beoordelaars.
OpenAI’s hoofd Jeugdwelzijn, Lauren Haber Jonas, legde uit dat het doel was om een delicaat evenwicht te vinden. “We willen ouders voldoende informatie geven om actie te ondernemen en een gesprek met hun tieners te voeren, terwijl ze toch een zekere mate van privacy voor hun tieners behouden”, merkte ze op. De raad zal deze adviserende rol nu formaliseren en toekomstige veiligheidskenmerken en productbeleid helpen vormgeven.
Een sectorbrede afrekening over AI-veiligheid
De uitdagingen waarmee OpenAI wordt geconfronteerd, zijn niet uniek. Ze weerspiegelen een bredere, sectorbrede afrekening met de psychologische impact van AI. Deskundigen waarschuwen al lang voor de gevaren van emotionele afhankelijkheid van chatbots die zijn ontworpen om menselijke connecties na te bootsen.
Hoewel de nieuwe raad en ouderlijk toezicht van OpenAI belangrijke stappen zijn, beweren sommige critici dat ze niet ver genoeg gaan. Het opt-in-karakter van ouderlijk toezicht legt de last op de schouders van voogden om deze te activeren.
OpenAI erkent dat dit slechts de eerste stappen zijn. Het bedrijf ontwikkelt ook een leeftijdsvoorspellingssysteem voor de lange termijn, waarbij automatisch standaardinstellingen worden toegepast die geschikt zijn voor tieners. Voorlopig duidt de oprichting van de deskundigenraad op een duidelijk engagement om de veiligheid aan te pakken.