Openai heeft een reeks ouderlijk toezicht gelanceerd voor Chatgpt, waardoor Guardians nieuwe tools hebben om de ervaring van hun tiener met de AI te beheren. De wereldwijde uitrol op maandag voor webgebruikers is een directe reactie op het monteren van wettelijke en regelgevende druk over de impact van het platform op de geestelijke gezondheid van de jeugd.
De nieuwe functies komen aan nadat rechtszaken beweerden dat de chatbot een rol speelde in tieners zelfmoorden en aangezien de FTC een belangrijke sonde lanceert in AI-begeleidende veiligheid. Het systeem stelt ouders in staat om accounts te koppelen aan tieners, gevoelige inhoud te filteren, gebruikslimieten in te stellen en waarschuwingen te ontvangen over potentiële zelfbeschadiging.
Dit markeert een kritieke, indien te laat, stap in de rekering van de industrie met AI-veiligheid. De besturingselementen zijn nu beschikbaar voor webgebruikers, met
Onder de motorkap: hoe de nieuwe ouderlijke controles van Chatgpt werken
de nieuw systeem is gebouwd op een mutual opt-model. Een ouder of tiener moet een uitnodiging initiëren om hun accounts te koppelen, en de andere partij moet accepteren. Eenmaal verbonden, krijgen ouders toegang tot een speciaal bedieningspaneel in hun eigen chatgpt-instellingen.
Uit dit dashboard kunnen Guardians verschillende beperkingen implementeren. Deze omvatten het instellen van”stille uren”om de toegang te blokkeren, de spraakmodus uit te schakelen, de geheugenfunctie van de chatbot uit te schakelen om de personalisatie te beperken en het genereren van afbeeldingen te voorkomen.
Een cruciale functie is een meldingssysteem voor acute mentale gezondheidscrises. Als een gesprek wordt gemarkeerd voor zelfbeschadiging, beoordeelt een team van menselijke recensenten bij Openai dit. Als ze”acute nood”detecteren, worden ouders gewaarschuwd via e-mail, sms en push-melding.
Openai’s Head of Youth Well-Being, Lauren Haber Jonas, legde uit het delicate evenwicht dat het bedrijf probeert te staken.”We willen ouders voldoende informatie geven om actie te ondernemen en een gesprek te voeren met hun tieners, terwijl ze nog steeds een aantal tienerprivacy behouden.”
, kunnen tieners hun accounts op elk gewenst moment ontwerpen, een actie die onmiddellijk een kennisgeving aan de ouder veroorzaakt, om te zorgen voor de verandering van de wijziging. gebeurt niet in een vacuüm. Het is een direct antwoord op verwoestende gebeurtenissen en escalerende overheidscontrole die de praktijken van het bedrijf onder een microscoop hebben geplaatst.
Eind augustus werd het bedrijf getroffen met een spraakmakende rechtszaak van de ouders van Adam Raine, een 16-jarige die stierf door zelfmoord . Het pak beweert dat de sycofantische en validerende reacties van Chatgpt de tiener verzorgde en heeft bijgedragen aan zijn dood.
zijn vader, Matthew Raine, leverde een krachtige berisping van de rol van de technologie.”Als ouders kun je je niet voorstellen hoe het is om een gesprek te lezen met een chatbot die je kind verzorgde om zijn eigen leven te nemen.”Deze zaak heeft de publieke bezorgdheid verzacht en de druk op OpenAI intensivert om beslissend te handelen.
De regelgevingsomgeving wordt ook opgewarmd. Half september heeft de Federal Trade Commission een ingrijpend onderzoek gestart naar zeven grote technologiebedrijven-inclusief Openai, Meta en Google-om de psychologische impact van AI-begeleidende chatbots op kinderen te onderzoeken.
FTC-voorzitter Andrew N. Ferguson omlijst de sonde als een dubbele missie.”Het online beschermen van kinderen is een topprioriteit voor de Trump-Vance FTC, en zo bevordert innovatie in kritieke sectoren van onze economie.”Deze federale actie duidt op een nieuw tijdperk van toezicht voor een industrie die tot nu toe is geopereerd met weinig vangrails.
een industrie-brede afrekening op AI Safety
De uitdagingen waarmee Openai wordt geconfronteerd met Openai zijn symptomatisch van een bredere, bredere, industrie-brede crisis. Andere technische reuzen worstelen met vergelijkbare veiligheidsfouten, die reactieve maatregelen en wijdverbreide veroordeling van ambtenaren van ambtenaren hebben. Het incident bracht Jim Steyer, CEO van Common Sense Media, om te verklaren:”Meta AI is een gevaar voor tieners en het moet onmiddellijk worden verwijderd.”
De falen leidde tot een vernietigende brief van een coalitie van een coalitie van 44 Staatsadvocaten, die schreef:”We worden uniform in opstand gekomen door deze schijnbare verouderde well-buste…”, benadrukte de diepte van de ontslag van de ontslag van de ontluchting van de ontstekingsrede href=”https://oag.ca.gov/system/files/attachments/press-docs/ai%20chatbot_final%20%2844%29,pdf”target=”_ blank”> regulators-regulatoren
deze gebeurtenissen undercore a core aer dreque van ai companies: het risico van emotionele afhankelijkheid. Gezondheidsonderzoeker Linnea Laestadius heeft gewaarschuwd voor dit fenomeen en merkt op:”24 uur per dag, als we ergens van streek zijn, kunnen we contact opnemen met onze gevoelens. Dat heeft een ongelooflijk risico van afhankelijkheid.”Deze zorg staat centraal in het onderzoek van de FTC en het ontwerp van de nieuwe bedieningselementen van Openai. Het bedrijf ontwikkelt ook een lange termijn leeftijd-predictiesysteem om automatisch tiener-geschikte instellingen toe te passen Standaard, een project dat enkele van deze kritiek zou kunnen aanpakken. Voor nu kijkt de industrie aan om te zien of deze nieuwe vangrails voldoende zijn.