OpenAI publikoi”Programin e Sigurisë së Adoleshentëve”të enjten, një kornizë e re e krijuar për të mbrojtur përdoruesit e rinj të AI.
Lëvizja është një përgjigje e drejtpërdrejtë ndaj presionit të fortë ligjor dhe qeveritar me të cilin përballet firma e San Franciskos. OpenAI është duke lundruar në një hetim të Komisionit Federal të Tregtisë, një ligj të ri për chatbot në Kaliforni dhe padi që lidhin mjetin e tij ChatGPT me vetëdëmtimin e adoleshentëve.
Për të përballuar krizën, kompania po propozon pesë parime thelbësore të sigurisë. Këto përfshijnë zbulim më të mirë të moshës dhe mbrojtje të paracaktuar për të miturit. OpenAI shpreson se ky plan proaktiv do të formësojë rregullat e industrisë së ardhshme dhe do të adresojë shqetësimet në rritje të sigurisë.
Një plan me pesë pika të zemrës për Shape. programi janë pesë parime thelbësore që OpenAI argumenton se të gjitha kompanitë e AI duhet të miratojnë.
Kompania po e pozicionon dokumentin jo vetëm si një politikë fillestare e brendshme për hartimin e ligjeve. Së pari, ai kërkon identifikimin e adoleshentëve në platforma duke përdorur”mjete vlerësimi të moshës që mbrojnë privatësinë, të bazuar në rrezik”për të ofruar përvoja të dallueshme, të përshtatshme për moshën.
Siç deklaron kompania,”Ne besojmë se ChatGPT duhet t’i përmbushë ata aty ku janë: mënyra se si ChatGPT i përgjigjet një të rrituri 15-vjeçari duhet të ndryshojë nga një i rritur”.
Së dyti, korniza kërkon politika specifike dhe strikte për të zbutur rreziqet për përdoruesit nën 18 vjeç. Sipas planit, sistemet e AI duhet të jenë të dizajnuara që të mos përshkruajnë vetëvrasjen ose vetëdëmtimin dhe duhet të”ndalojnë përmbajtjen grafike ose zhytëse (d.m.th., luajtjen e roleve) intime dhe të dhunshme që të parandalojnë gjithashtu një përmbajtje intime dhe të dhunshme që të parandalojë politikat e AI.””Idealet dhe sjelljet e dëmshme të trupit përmes vlerësimeve të pamjes, krahasimeve të trupit ose stërvitjes kufizuese të dietës.”
Së treti, OpenAI mbron për mospërmbushjen e një përvoje të sigurt U18 sa herë që mosha e një përdoruesi është në dyshim, veçanërisht për përdoruesit e paautenifikuar. Kjo i jep përparësi sigurisë edhe nëse pengon përdorimin e një produkti falas nga një i rritur.
Së katërti, projekti thekson fuqizimin e familjeve me kontrolle prindërore të arritshme, duke u mbështetur në veçoritë që kompania ka lançuar së fundmi. Këto kontrolle i lejojnë kujdestarët të lidhin llogaritë, të caktojnë”orët e errësirës”, të menaxhojnë cilësimet e privatësisë së të dhënave dhe të marrin sinjalizime nëse aktiviteti i një adoleshenti sugjeron një qëllim për të vetëdëmtuar.
Më në fund, kërkon dizajnim për mirëqenien duke përfshirë veçori të informuara nga kërkimet e shëndetit mendor. Dokumenti i OpenAI e kuadron këtë si një ndryshim thelbësor në prioritetet.”Për adoleshentët, ne i japim përparësi sigurisë përpara privatësisë dhe lirisë. Kjo është një teknologji e re dhe e fuqishme dhe ne besojmë se të miturit kanë nevojë për mbrojtje të konsiderueshme.”
Një lëvizje proaktive në mes të një rrethimi rregullator dhe ligjor
Përballja me një valë të baticës së shqyrtimit ligjor dhe rregullator është një përpjekje e qartë e OpenAI për të kontrolluar. Kompania aktualisht po mbrohet kundër një padie të profilit të lartë për vdekje të gabuar nga prindërit e një adoleshenti që vdiq nga vetëvrasja.
Babai i adoleshentit, Matthew Raine, lëshoi një qortim të fuqishëm, duke deklaruar,”Si prindër, nuk mund ta imagjinoni se si është të lexoni një bisedë me një chatbot që kujdeset për fëmijën tuaj për t’u marrë me çështjen e tij.”praktikat e sigurisë së kompanisë nën një mikroskop.
Presioni qeveritar po përshkallëzohet nga shumë drejtime. Në shtator, Komisioni Federal i Tregtisë i SHBA-së nisi një hetim të madh mbi ndikimin e chatbot-eve shoqëruese të AI tek adoleshentët, duke synuar OpenAI dhe gjashtë gjigantë të tjerë të teknologjisë.
Kryetari i FTC, Andrew N. Ferguson e përshkroi hetimin si një akt balancues: “mbrojtja e fëmijëve në internet është një prioritet kryesor për sektorin tonë të Trump-Vance, kështu që është e rëndësishme në mbështetjen e FTC-së. ekonomia.”
Ligjvënësit shtetërorë dhe federalë po lëvizin gjithashtu në mënyrë agresive. Në Kaliforni, Guvernatori Gavin Newsom
Ligji urdhëron që operatorët të ofrojnë alarme të përsëritura duke u kujtuar të miturve se po flasin me një AI, të bllokojnë përmbajtje të rrezikshme dhe të ofrojnë një të drejtë private veprimi për familjet për të paditur zhvilluesit që nuk janë në përputhje.
Autori i projekt-ligjit, senatori Steve Padilla nuk mund të dëshmojë përsëri se”kishte kohë më parë se ata kishin”kishte”i besohet vetë policisë”. Në nivel federal, një grup dypartiak i senatorëve amerikanë prezantoi Aktin e GUARD-it në tetor. duke propozuar një ndalim të plotë të shoqëruesve të AI për të mitur dhe duke krijuar përgjegjësi të reja penale për kompanitë, AI i të cilave prodhon përmbajtje të paligjshme për përdoruesit e mitur.
Në planin e saj, OpenAI kundërshton narrativën e mosveprimit, duke theksuar masat ekzistuese të sigurisë. Kompania vuri në dukje se vetëm në gjysmën e parë të vitit 2025, raportoi tek autoritetet më shumë se 75,000 këshilla kibernetike të materialit të abuzimit seksual të fëmijëve të krijuar nga AI. Qëndrimi
Megjithatë, ndërsa OpenAI e pozicionon veten si një lider në sigurinë e adoleshentëve, ajo duhet gjithashtu të përballet me deklaratat dhe politikat e veta publike kontradiktore. Ky mesazh sigurie përpara është në kontrast të plotë me ndryshimet e fundit të politikave të kompanisë.
Vetëm muajin e kaluar, CEO Sam Altman mbrojti një vendim të diskutueshëm për të lejuar përmbajtje erotike të kufizuar nga mosha në ChatGPT. Ai u tërhoq kundër kritikave duke deklaruar,”ne nuk jemi policia e zgjedhur morale e botës”. Lëvizja, e cila tërhoqi shqetësimin e figurave si Mark Cuban, krijoi një perceptim të prioriteteve kontradiktore brenda kompanisë.
Programi i Sigurisë së Adoleshentëve mund të shihet si i fundit në një seri iniciativash kundër zjarrit të shpejtë të krijuar për të demonstruar një përkushtim ndaj sigurisë. Në fund të shtatorit, kompania prezantoi paketën e saj të kontrolleve prindërore.
Vetëm dy javë më vonë, ajo njoftoi formimin e një këshilli ekspertësh prej tetë anëtarësh për të këshilluar mbi mirëqenien dhe shëndetin mendor.
Këto sfida nuk janë unike për OpenAI, duke reflektuar një llogaritje më të gjerë, në mbarë industrinë. Konkurrentët si Meta po përballen me krizat e tyre ligjore mbi sigurinë e adoleshentëve. Një gjykatë e D.C. kohët e fundit thirri përjashtimin e rrallë të mashtrimit nga krimi për të vendosur që Meta nuk mund të fshihte kërkimet e brendshme të dëmit të adoleshentëve pas privilegjit avokat-klient.
Gjykata gjeti prova që avokatët këshilluan studiuesit të ndryshonin gjetjet për të kufizuar përgjegjësinë, duke vërtetuar pretendimet e sinjalizuesve për një strategji të”mohimit të besueshëm”. Duke lëshuar planin e tij, OpenAI po bën një lojë strategjike për të përcaktuar kushtet e sigurisë së AI, duke shpresuar të formësojë rregullat përpara se rregullatorët dhe gjykatat të vendosin ato më të rrepta.