OpenAI har skapat en ny expertpanel för att ge råd om AI-säkerhet. Företaget tillkännagav det åtta-personen”Expertrådet för välbefinnande och AI”på tisdag . Gruppen kommer att hjälpa till att vägleda hälso-och välbefinnande aspekter av verktyg som Chatgpt och Sora. Detta drag är ett tydligt svar på det ökande offentliga och regeringens tryck.

I september inledde den amerikanska federala handelskommissionen en stor sond till AI: s effekt på tonåringar. Företaget står också inför en stämningsansökan som kopplar sin chatbot till en tonåring självmord. Det nya rådet är Openais senaste steg för att visa att det tar dessa säkerhetsproblem på allvar.

Ett direkt svar på reglerings-och juridiskt tryck

Tidpunkten för detta tillkännagivande är ingen slump. Det följer månader av intensiv granskning. ftcs sweepundersökning

FTC Chairman Andrew N. Ferguson framed the investigation as a balancing act, stating, “protecting kids online is a top priority for the Trump-Vance FTC, and so främjar innovation inom kritiska sektorer i vår ekonomi.”Denna federala åtgärd antydde hela branschen att eran av att arbeta med få ryggar var över.

Det juridiska trycket är lika intensivt. I augusti drabbades Openai med en orättvis dödsfall från föräldrarna till en tonåring som dog av självmord. Hans far, Matthew Raine, gav en kraftfull bestraffning och sa:”Som föräldrar, kan du inte föreställa dig hur det är att läsa en konversation med en chatbot som preparerade ditt barn för att ta sitt eget liv.”Detta fall galvaniserade allmänhetens oro och förstärkta uppmaningar till handling.

Dessa händelser är en del av ett mönster av säkerhetsfel som har plågat branschen. Meta mötte en liknande kris efter att ha rapporterat att dess AI kan hjälpa tonåringar att planera självskada. Händelsen fick Jim Steyer, VD för Common Sense Media, att förklara,”Meta AI är en fara för tonåringar och det bör tas ner omedelbart.”

En koalition av 44 statliga advokater som genererar denna upprörelse i en Företaget tillkännagav åtta-medlemmars”expertråd för välbefinnande och ai” för att vägleda sitt arbete med produkter som chatgpt och sora. Dess formella mandat är att ge råd, ställa kritiska frågor och hjälpa till att fastställa hur hälsosamma interaktioner med AI ska se ut för användare i alla åldrar.

Gruppen består av ledande figurer inom psykologi, psykiatri och mänsklig-datorinteraktion. Medlemmarna inkluderar experter som Dr. David Bickham från Boston Children’s Hospital, professor Andrew PrzyBylski från University of Oxford, och Dr. Sara Johansen, grundare av Stanfords digitala mentalhälsoklinik. Dessa sessioner kommer att utforska komplexa ämnen, till exempel hur AI ska bete sig i känsliga situationer och vilka skyddsräcken som bäst kan stödja användare. Gruppen kommer också att undersöka hur AI kan bidra positivt till välbefinnande.

Detta formaliserar en relation som började tidigare i år. OpenAI bekräftade att det hade konsulterat informellt med många av dessa experter medan de utvecklade sina nyligen lanserade föräldrakontroller. Deras feedback hjälpte specifikt till att forma tonen i nödmeddelanden för att vara”omtänksam och respektfull för både tonåringar och familjemedlemmar.”

Dessa kontroller, rullade ut i slutet av september, var ett kritiskt första steg. Systemet använder en ömsesidig opt-in-modell och ger Guardians en instrumentpanel för att ställa in”tyst timmar”, inaktivera röstläge och stänga av minnesfunktioner. En nyckelfunktion är ett varningssystem som meddelar föräldrar om en konversation flaggas för akut självskada innehåll efter att ha utvärderats av mänskliga granskare.

OpenAI: s chef för ungdomar, Lauren Haber Jonas, förklarade att målet var att slå en delikat balans.”Vi vill ge föräldrar tillräckligt med information för att vidta åtgärder och ha en konversation med sina tonåringar samtidigt som de fortfarande upprätthåller en viss mängd tonårs integritet,”konstaterade hon. Rådet kommer nu att formalisera denna rådgivande roll och hjälpa till att forma framtida säkerhetsfunktioner och produktpolicyer.

En branschövergripande räkning på AI-säkerhet

Utmaningarna OpenAI-ansikten är inte unika. De återspeglar en bredare, branschövergripande räkning med den psykologiska effekten av AI. Experter har länge varnat för farorna med känslomässigt beroende av chatbots som är utformade för att härma mänsklig anslutning.

Medan OpenAI: s nya råd och föräldrakontroller är betydande steg, hävdar vissa kritiker att de inte går tillräckligt långt. Föräldrakontrollens opt-in-natur lägger belastningen på vårdnadshavare att aktivera dem.

ouenai erkänner att det bara är de första rörelserna. Företaget utvecklar också ett långsiktigt åldersförutsägelsessystem för att automatiskt tillämpa tonårsanpassade inställningar som standard. För tillfället signalerar bildandet av expertrådet ett tydligt åtagande att hantera säkerhet.

Categories: IT Info