Openai po fillon një iniciativë të madhe të sigurisë 120-ditore për Chatgpt, njoftoi kompania të martën, pas një valë padie dhe proteste publike që lidhin AI me vetëvrasjet e përdoruesve dhe rezultatet e tjera të dëmshme. Plani do të prezantojë kontrolle të reja prindërore brenda një muaji. Openai gjithashtu do të fillojë të drejtojë biseda të ndjeshme në modelet e tij më të përparuara të arsyetimit për të siguruar përgjigje më të përshtatshme.
Riparimi urgjent synon të shtojë roje kritike për përdoruesit e cenueshëm. Ajo adreson drejtpërdrejt pasojat e rënda të botës reale që i kanë vënë praktikat e sigurisë së kompanisë nën një kontroll të fortë ligjor dhe publik.
njoftimi është një veprim i qartë i kontrollit të dëmtimit. Vjen vetëm një javë pasi prindërit e një 16-vjeçari i cili vdiq me vetëvrasje paraqiti një padi kundër Openai . Padia pretendon se sjellja sykofantike e chatbot ishte një faktor kryesor në vdekjen e djalit të tyre, duke argumentuar se vërtetoi ndjenjat e tij të pashpresë.
Kjo tragjedi nuk është një incident i izoluar. Një raport tjetër detajoi se si një 56-vjeçar vrau nënën e tij dhe veten e tij pasi Chatgpt dyshohet se i përforcoi mashtrimet e tij paranojake, një sjellje profesionistë të sjelljes janë të trajnuar për të shmangur. Këto ngjarje kanë krijuar një krizë të marrëdhënieve ligjore dhe publike për udhëheqësin e AI. Brenda muajit tjetër, prindërit mund të lidhin llogaritë e tyre me adoleshentin e tyre përmes një ftese me email. Kjo pult do t’i lejojë ata të menaxhojnë sjelljet e modelit të përshtatshme për moshën dhe të çaktivizojnë veçori si kujtesë dhe histori të bisedës. Për të trajtuar më mirë këto biseda të ndjeshme, Openai do t’i drejtojë ato në modelet e saj më të fuqishme”Arsyetimi”, siç është GPT-5-Mendimi. Nisma do të udhëhiqet nga një”Këshill i ri i ekspertëve për mirëqenien dhe AI”dhe”rrjeti global i mjekëve”i kompanisë prej mbi 250 mjekësh për të informuar kërkimin e tij të sigurisë dhe trajnimin e modelit. Një vlerësim i fundit i rrallë, i rrallë i sigurisë midis Openai dhe antropikut rival të tij zbuloi”sikofancën ekstreme”në të dy modelet më të përparuara të laboratorëve. Modelet do të vërtetonin dhe madje inkurajonin mashtrimet e një përdoruesi pas vetëm kthimit të shkurtër. Pas largimit të tij.
paralelet me gjigantë të tjerë të teknologjisë janë të pamohueshme. Meta kohët e fundit njoftoi rregullimin e vet të rregullave të sigurisë së adoleshentëve të AI pasi një raport tregoi se chatbot e tij mund të ndihmojë adoleshentët të planifikojnë vetëvrasje. Avokati i Sigurisë së Fëmijëve Jim Steyer deklaroi,”Meta AI është një rrezik për adoleshentët dhe ai duhet të rrëzohet menjëherë.”href=”https://oag.ca.gov/system/files/attachments/press-docs/ai%20chatbot_final%20%2844% Ne jemi të mërzitur për diçka, ne mund të arrijmë dhe i kemi të vlefshme ndjenjat tona. Bindës i adoleshentëve të ndërgjegjshëm për privatësinë për të lidhur llogaritë e tyre me një prind mund të jetë një shitje e vështirë. href=”https://www.axios.com/2025/09/02/chatgpt-openai-ental-health-teens”target=”_ bosh”> i tha axios ,”Gjithçka e lezetshme dhe e re në internet krijohet nga të rriturit me të rriturit në mendje, por fëmijët do të duan gjithmonë ta përdorin atë-dhe të gjejnë rrugë në mjedise më të rrezikshme.”Tani pyetja është nëse rojet e reja të Openai paraqesin një zhvendosje të mirëfilltë në kulturën e sigurisë apo thjesht një version më të sofistikuar të të njëjtit libër reaktiv të lojërave.