OpenAI a lansat o suită de controale parentale pentru ChatGPT, oferind gardienilor instrumente noi pentru a gestiona experiența adolescenței lor cu AI. Luni globale de luni pentru utilizatorii web este un răspuns direct la creșterea presiunii legale și de reglementare asupra impactului platformei asupra sănătății mintale a tinerilor.

Noile caracteristici ajung după ce procesele au presupus că chatbot-ul a jucat un rol în sinuciderea adolescenților și pe măsură ce FTC lansează o sondă majoră în siguranța companiei AI. Sistemul permite părinților să conecteze conturile cu adolescenții, să filtreze conținutul sensibil, să stabilească limite de utilizare și să primească alerte cu privire la potențialul auto-vătămare.

Acest lucru marchează un pas critic, dacă este întârziat, în calculul industriei cu siguranța AI. Controalele sunt disponibile acum pentru utilizatorii web, cu Accesul mobil așteptat în curând .

sub capotă: Cum funcționează noile controale parentale ale Chatgpt

nou sistem este construit pe un model mutual opt-in. Un părinte sau un adolescent trebuie să inițieze o invitație pentru a-și lega conturile, iar cealaltă parte trebuie să accepte. Odată conectați, părinții au acces la un panou de control dedicat în propriile setări ChatGPT.

din acest tablou de bord, Guardians pot implementa mai multe restricții. Acestea includ setarea „orelor liniștite” pentru a bloca accesul, dezactivarea modului vocal, oprirea funcției de memorie a chatbotului pentru a limita personalizarea și prevenirea generarii de imagini.

O caracteristică crucială este un sistem de notificare pentru crizele acute de sănătate mintală. Dacă o conversație este semnalizată pentru conținutul de auto-vătămare, o echipă de recenzori umani la OpenAI o evaluează. Dacă detectează „suferință acută”, părinții sunt alertați prin e-mail, text și notificare push.

șeful de bunăstare a tinerilor Openai, Lauren Haber Jonas, a explicat echilibrul delicat pe care compania încearcă să-l lovească. „Vrem să le oferim părinților suficiente informații pentru a lua măsuri și pentru a avea o conversație cu adolescența lor, păstrând în continuare o anumită cantitate de confidențialitate a adolescenților. Nu se întâmplă în vid. Este un răspuns direct la evenimentele devastatoare și escaladarea controlului guvernamental care au plasat practicile companiei la un microscop.

La sfârșitul lunii august, compania a fost lovită cu un proces cu profil înalt de la părinții lui Adam Raine, un tânăr de 16 ani care a murit prin sinucidere . Costumul susține că răspunsurile sifantice și validarea lui Chatgpt au îngrijit adolescentul și a contribuit la moartea sa.

Tatăl său, Matthew Raine, a oferit o mustrare puternică a rolului tehnologiei. „În calitate de părinți, nu vă puteți imagina cum este să citiți o conversație cu un chatbot care a îngrijit copilul pentru a-și duce propria viață”. Acest caz a galvanizat preocuparea publică și a intensificat presiunea asupra lui OpenAI pentru a acționa decisiv.

Mediul de reglementare se încălzește. La mijlocul lunii septembrie, Comisia Federală a Comerțului a lansat o anchetă deosebită asupra a șapte firme majore de tehnologie-inclusiv OpenAI, Meta și Google-pentru a investiga impactul psihologic al chatbot-urilor de companie AI asupra copiilor.

președintele FTC, Andrew N. Ferguson „Protejarea copiilor online este o prioritate maximă pentru FTC-ul Trump-Vance și, la fel, încurajarea inovației în sectoarele critice ale economiei noastre.” Această acțiune federală semnalează o nouă eră de supraveghere pentru o industrie care, până în prezent, a funcționat cu puține gardă.

o socoteală la nivel de industrie despre siguranța AI

Provocările cu care se confruntă Openai sunt simptomatice ale unei crize mai largi, la nivel de industrie. Alți giganți tehnologici se confruntă cu eșecuri similare de siguranță, ceea ce determină măsuri reactive și condamnarea pe scară largă din partea oficialilor.

Meta s-a confruntat recent cu propriile sale furtuni, după ce rapoartele au dezvăluit că AI-ul său ar putea ajuta adolescenții să se auto-dăuneze. Incidentul l-a determinat pe Jim Steyer, CEO al Common Sense Media, să declare: „Meta Ai este un pericol pentru adolescenți și ar trebui să fie eliminat imediat. href=”https://oag.ca.gov/system/files/attachments/press-docs/ai%20ChatBot_final%20%2844%29.pdf”Target=”_ Blank”> State-la-la-level .

aceste evenimente subliniază un pericol de bază al însoțitorilor ai: riscul de dependență emoțională.

Cercetătorul de sănătate publică Linnea Laestadius a avertizat despre acest fenomen, menționând: „Timp de 24 de ore pe zi, dacă suntem supărați de ceva, putem să ne întindem și să ne validăm sentimentele. Acest lucru are un risc incredibil de dependență.”Această preocupare este esențială pentru ancheta FTC și proiectarea noilor controale ale lui OpenAI.

În ciuda noilor caracteristici, unii critici susțin că sistemul de opțiune pune o povară nedreaptă pentru părinți.

OpenAI recunoaște că aceștia sunt doar primii pași. Compania dezvoltă, de asemenea, un termen lung Sistemul de afectarea agenților de a aplica pentru a aplica automat setări pentru adolescenți În mod implicit, un proiect care ar putea aborda unele dintre aceste critici. Deocamdată, industria se uită pentru a vedea dacă aceste noi balustrade sunt suficiente.

Categories: IT Info