OpenAI a lansat joi „Teen Safety Blueprint”, un nou cadru conceput pentru a proteja tinerii utilizatori de AI.

Mișcarea este un răspuns direct la presiunea juridică și guvernamentală intensă cu care se confruntă firma din San Francisco. OpenAI navighează într-o anchetă a Comisiei Federale de Comerț, o nouă lege pentru chatbot din California și procese care leagă instrumentul său ChatGPT de autovătămarea adolescenților.

Pentru a trece înaintea crizei, compania propune cinci principii de bază de siguranță. Acestea includ o detectare mai bună a vârstei și protecții implicite pentru minori. OpenAI speră că acest plan proactiv va modela viitoarele reguli ale industriei și va aborda preocupările tot mai mari de siguranță.

Un plan în cinci puncte pentru a modela inimile AI>

href=”https://cdn.openai.com/pdf/OAI%20Teen%20Safety%20Blueprint.pdf”target=”_blank”>blueprint sunt cinci principii de bază pe care OpenAI susține că toate companiile de inteligență artificială ar trebui să le adopte.

Compania poziționează documentul nu doar ca politică internă, ci și ca punct de plecare pentru elaborarea de noi reglementări. În primul rând, solicită identificarea adolescenților pe platforme care utilizează „instrumente de estimare a vârstei bazate pe riscuri, care protejează confidențialitatea” pentru a oferi experiențe distincte, adecvate vârstei.

Așa cum afirmă compania, „Credem că ChatGPT ar trebui să-i îndeplinească acolo unde sunt: modul în care ChatGPT răspunde unui tânăr de 15 ani ar trebui să difere de felul în care răspunde la politicile stricte, la un cadru specific pentru adulți.”

pentru a atenua riscurile pentru utilizatorii sub 18 ani. Conform planului, sistemele AI ar trebui să fie concepute astfel încât să nu descrie sinuciderea sau autovătămarea și trebuie să „interzică conținutul grafic sau imersiv (adică, jocurile de rol) intim și violent”.

Politicile urmăresc, de asemenea, să împiedice AI să consolideze „apariția corporală dăunătoare, idealuri sau comportamente dăunătoare prin comparații corporale, evaluări sau comportamente dăunătoare. coaching.”

În al treilea rând, OpenAI pledează pentru utilizarea implicită la o experiență U18 sigură ori de câte ori vârsta unui utilizator este îndoielnică, în special pentru utilizatorii neautentificați. Acest lucru acordă prioritate siguranței, chiar dacă împiedică utilizarea unui produs gratuit de către un adult.

În al patrulea rând, proiectul pune accentul pe acordarea de putere a familiilor cu controale parentale accesibile, bazându-se pe funcțiile lansate recent de companie. Aceste comenzi le permit tutorilor să conecteze conturile, să stabilească „orele de blocare”, să gestioneze setările de confidențialitate a datelor și să primească alerte dacă activitatea unui adolescent sugerează o intenție de auto-vătămare.

În cele din urmă, solicită proiectarea pentru bunăstare prin încorporarea unor funcții bazate pe cercetarea sănătății mintale. Documentul OpenAI încadrează acest lucru ca o schimbare fundamentală a priorităților. „Pentru adolescenți, acordăm prioritate siguranței înaintea confidențialității și libertății. Aceasta este o tehnologie nouă și puternică și credem că minorii au nevoie de protecție semnificativă.”

O mișcare proactivă în mijlocul unui asediu legal și de reglementare

În fața unui val mare de control juridic și de reglementare, planul OpenAI este o încercare clară de a controla narațiunea. Compania se apără în prezent împotriva unui proces înalt pentru moarte din culpă din partea părinților unui adolescent care s-a sinucis.

Tatăl adolescentului, Matthew Raine, a emis o mustrare puternică, afirmând: „Ca părinți, nu vă puteți imagina cum este să citiți o conversație cu un chatbot care a pregătit copilul să-și ia propria viață în grija pentru siguranța publică.”

practici la microscop.

Presiunea guvernamentală crește din mai multe direcții. În septembrie, Comisia Federală pentru Comerț a S.U.A. a lansat o investigație majoră asupra impactului chatbot-urilor însoțitori de inteligență artificială asupra adolescenților, vizând OpenAI și alți șase giganți ai tehnologiei.

Președintele FTC, Andrew N. Ferguson, a descris ancheta ca pe un act de echilibru: „protejarea copiilor online este o prioritate de top pentru Trump-Vance”.

Legislatorii de stat și federali se mișcă, de asemenea, agresiv. În California, guvernatorul Gavin Newsom a semnat SB 243-a în prima lege în octombrie 2413-a>în prima lege în octombrie 2413-a> pentru chatbot-uri AI.

Legea prevede ca operatorii să furnizeze alerte recurente care să le reamintească minorilor că vorbesc cu o IA, să blocheze conținutul periculos și să ofere familiilor un drept privat de acțiune pentru a da în judecată dezvoltatorii neconformă.

Autorul proiectului de lege, senatorul Steve Padilla, susținuse anterior că „Big Tech nu s-a dovedit a fi timpul și a avut încredere în poliție.” La nivel federal, un grup bipartizan de senatori americani a introdus Legea GUARD la sfârșitul lunii octombrie, propunând și mai mult un proiect de lege T. interzicerea însoțitorilor AI pentru minori și crearea de noi răspunderi penale pentru companiile a căror IA produce conținut ilicit pentru utilizatorii minori.

În planul său, OpenAI respinge narațiunea inacțiunii, subliniind măsurile de siguranță existente. Compania a remarcat că numai în prima jumătate a anului 2025, a raportat autorităților peste 75.000 de informații cibernetice de materiale de abuz sexual asupra copiilor generate de inteligență artificială. Poziție

Cu toate acestea, deoarece OpenAI se poziționează ca lider în siguranța adolescenților, trebuie, de asemenea, să se confrunte cu propriile declarații și politici publice contradictorii. Acest mesaj de siguranță este în contrast puternic cu schimbările recente ale politicii companiei.

Chiar luna trecută, CEO-ul Sam Altman a apărat o decizie controversată de a permite conținut erotic în funcție de vârstă pe ChatGPT. El a respins criticile declarând: „nu suntem poliția morală aleasă a lumii”. Mișcarea, care a atras îngrijorarea unor figuri precum Mark Cuban, a creat o percepție a priorităților conflictuale în cadrul companiei.

Teen Safety Blueprint poate fi văzută ca cea mai recentă dintr-o serie de inițiative rapide menite să demonstreze un angajament față de siguranță. La sfârșitul lunii septembrie, compania și-a lansat suita de controale parentale.

La doar două săptămâni mai târziu, a anunțat formarea unui consiliu de experți format din opt membri, care să ofere consiliere în domeniul bunăstării și sănătății mintale.

Aceste provocări nu sunt unice pentru OpenAI, reflectând o evaluare mai largă, la nivelul întregii industrie. Concurenți precum Meta se confruntă cu propriile crize legale din cauza siguranței adolescenților. O instanță din D.C. a invocat recent excepția de infracțiune rară pentru fraudă pentru a decide că Meta nu poate ascunde cercetările interne asupra prejudiciului adolescentului în spatele privilegiului avocat-client.

Instanța a găsit dovezi că avocații i-au sfătuit pe cercetători să modifice concluziile pentru a limita răspunderea, validând afirmațiile denunțătorilor privind o strategie de „negabilitate plauzibilă”. Prin lansarea planului său, OpenAI face un joc strategic pentru a defini termenii siguranței AI, sperând să modeleze regulile înainte ca autoritățile de reglementare și instanțele să impună altele mai stricte.

Categories: IT Info