en chatgpt href=”https://openai.com/index/introducing-parental-controls/”target=”_ blank”> nytt system er bygget på en gjensidig opt-in-modell. En forelder eller tenåring må sette i gang en invitasjon til å koble kontoene sine, og den andre parten må godta. Når de er koblet sammen, får foreldre tilgang til et dedikert kontrollpanel i sine egne chatGPT-innstillinger.
Fra dette dashbordet kan Guardians implementere flere begrensninger. Disse inkluderer innstilling av”stille timer”for å blokkere tilgang, deaktivere stemmemodus, slå av chatbots minnefunksjon for å begrense personalisering og forhindre generering av bilder.
En avgjørende funksjon er et varslingssystem for akutte psykiske helsekriser. Hvis en samtale blir flagget for selvskading, vurderer et team av menneskelige anmeldere på Openai det. Hvis de oppdager”akutt nød”, blir foreldre varslet via e-post, tekst og pushvarsling.
Openais ungdoms leder for ungdom, Lauren Haber Jonas, forklarte den delikate balansen selskapet prøver å streike.”Vi ønsker å gi foreldre nok informasjon til å iverksette tiltak og ha en samtale med tenårene, mens vi fremdeles opprettholder en viss mengde tenårings privatliv.”
Tenårene kan imidlertid fjerne kontoene sine når som helst, en handling som umiddelbart utløser en varsel til foreldrene, og sikrer at de er klar over endring Overhaling skjer ikke i et vakuum. Det er et direkte svar på ødeleggende hendelser og eskalerende statlig kontroll som har plassert selskapets praksis under et mikroskop.
I slutten av august ble selskapet rammet med et høyt profilert søksmål fra foreldrene til Adam Raine, en 16 år gammel som døde av selvmord . Drakten hevder at Chatgpts sykofantiske og validerte svar pleiet tenåringen og bidro til hans død.
Hans far, Matthew Raine, leverte en kraftig irettesettelse av teknologens rolle.”Som foreldre kan du ikke forestille deg hvordan det er å lese en samtale med en chatbot som pleide barnet ditt for å ta sitt eget liv.”Denne saken galvaniserte offentlig bekymring og forsterket presset på Openai for å handle avgjørende.
Reguleringsmiljøet varmes også opp. I midten av september lanserte Federal Trade Commission en feiende utredning av syv store teknologiske firmaer-inkludert Openai, Meta og Google-for å undersøke den psykologiske effekten av AI Companion Chatbots på barn.
FTC-styreleder Andrew N. Ferguson innrammet sonden som et dualoppdrag.”Å beskytte barn på nettet er en topp prioritet for Trump-Vance FTC, og det er at det fremmer innovasjon i kritiske sektorer i økonomien vår.”Denne føderale handlingen signaliserer en ny epoke med tilsyn for en bransje som til nå har operert med få rekkverk.
En bransjeomfattende regning på AI Safety
Utfordringene som Openai står overfor er symptomatiske for en bredere, bransje-hele krise. Andre tech-giganter kjemper med lignende sikkerhetssvikt, noe som ber om reaktive tiltak og utbredt fordømmelse fra tjenestemenn.
Meta møtte nylig sin egen ildstorm etter at rapporter avslørte at AI kan hjelpe tenåringer med å planlegge selvskading. Hendelsen førte href=”https://oag.ca.gov/system/files/attachments/press-docs/ai%20chatbot_final%20%2844%29.pdf”Target=”_ Blank”> State-level regulatorer
disse hendelsene.
Folkehelseforsker Linnea Laestadius har advart om dette fenomenet, og bemerker:”I 24 timer i døgnet, hvis vi er opprørt over noe, kan vi nå ut og få våre følelser validert. Det har en utrolig risiko for avhengighet.”Denne bekymringen er sentral i FTCs henvendelse og utformingen av Openais nye kontroller.
Til tross for de nye funksjonene, hevder noen kritikere at opt-in-systemet legger en urettferdig belastning for foreldre.
Openai erkjenner at dette bare er første trinn. Selskapet utvikler også en langsiktig Age-Prediction System for å automatisk bruke tenåring-apropriate innstillinger som standard kan ta opp noen av disse kritikken. Foreløpig ser bransjen for å se om disse nye rekkverkene er nok.