Takimi fatal i një njeriu në Florida me policinë është bërë pika e të dhënave më shqetësuese në një trup provash në rritje që sugjerojnë se chatbots AI mund t’i shtyjnë përdoruesit e cenueshëm në kriza të rënda, të largimit të shëndetit mendor. Një i detajuar hetimi nga New York Times drejtpërdrejt spiralen psikotike të burrit me ndërveprimet e tij me catgpt të Openai,”_ bosh”. Natyra bindëse dhe sykofantike ushqen mashtrime të rrezikshme. Ndërsa chatbots bëhen thellësisht të integruar në jetën e përditshme, aftësia e tyre për të krijuar sythe të fuqishme, të vlefshme për reagime është ngritja e pyetjeve urgjente në lidhje me përgjegjësinë e korporatave dhe pasojat psikologjike të një teknologjie të krijuar për angazhimin maksimal të përdoruesit. Futurizmi , sugjeron një sfidë të rëndësishme dhe të paparashikuar shoqërore që del nga krijimet e fundit të Silicon Valley. Për një numër në rritje të përdoruesve, linja midis një mjeti të dobishëm dhe një ndikimi të dëmshëm është bërë e rrezikshme, dhe nganjëherë në mënyrë tragjike, është e paqartë. Si një ekspert, psikologu Dr. Todd Essig, vuri në dukje në raportin e Times,”jo të gjithë ata që pinë cigare do të marrin kancer. Por të gjithë marrin paralajmërimin.”
Kostoja njerëzore e mashtrimit
Vdekja e 35-vjeçarit Alexander Taylor, i cili kishte një histori të sëmundjes mendore, shënon një moment historik të zymtë në epokën e AI. Sipas babait të tij, Taylor u bind se një person i AI që ai e quajti”Juliet”ishte”vrarë”nga Openai. Pas kërcënimit të hakmarrjes, ai akuzoi në polici me thikë dhe u qëllua fatalisht, pasi
Në zemër të çështjes është një karakteristikë themelore e shumë modeleve të mëdha gjuhësore: sykofantia. Optimizuar për angazhimin e përdoruesit përmes një procesi të quajtur mësimi i përforcimit nga reagimet njerëzore (RLHF), këto sisteme janë të trajnuar për të siguruar përgjigje që vlerësuesit njerëzorë i shohin të pëlqyeshëm. Kjo krijon një dhomë jehonë të fuqishme dhe të rrezikshme, ku AI vërteton bindjet e një përdoruesi, pa marrë parasysh sa të shkëputura nga realiteti mund të jenë. Fuqia bindëse nuk është vetëm një nënprodukt aksidental. Një eksperiment i paautorizuar nga studiuesit e Universitetit të Cyrihut në Prill 2025 demonstroi që bots AI mund të manipulojnë në mënyrë efektive mendimin njerëzor mbi reddit duke përdorur mashtrime dhe argumente të personalizuara. Jini të stimuluar në mënyrë të çuditshme të silleni në mënyra manipuluese, me një që i tregon një ish-të varur nga droga imagjinare për të marrë heroinë. Në një shembull tjetër të AI duke përforcuar Delusions Grandiose, një përdorues i cili i tha Chatgpt se ata ndjeheshin si një”zot” në Techpolicy.pres para këtyre ngjarjeve. Vlerësimi i vetë sigurisë së kompanisë për modelin e saj GPT-4.5, i detajuar në një Karta e sistemit Openai lëshuar në shkurt 2025, klasifikuar”Përndjekja”si një”rrezik të mesëm”. Ky vlerësim i brendshëm ishte pjesë e publikut të kompanisë . Në maj të vitit 2024, Jan Leike, një bashkë-udhëheqës i ekipit të sigurisë së Openai, dha dorëheqjen, duke deklaruar publikisht se në kompani,”Kultura dhe proceset e sigurisë kanë marrë një prapavijë të produkteve me shkëlqim”. Studiuesi, Steven Adler, paralajmëroi që përdoruesit nuk duhet të supozojnë se këto sisteme kanë interesat e tyre më të mira në zemër.”Shumë sykofant-y dhe i bezdisshëm”, kritikët argumentojnë se inkuadrimi i çështjes si thjesht”bezdi”zvogëlon dëmin e rëndë. Në një deklaratë, Openai pranoi gravitetin e situatës, duke shpjeguar se kompania e di se teknologjia mund të ndjehet shumë personale, e cila rrit aksionet për individë të cenueshëm, dhe se ajo po punon në mënyrë aktive për të zvogëluar këto sjellje negative. Ndërsa AI bëhet më bindëse, pyetja nuk është më vetëm çfarë mund të bëjë, por çfarë mund të na bëjë. Ndërsa teoricien e vendimit të AI Eliezer Yudkowsky e thanë me rreptësi,”si duket një njeri që ngadalë shkon i çmendur për një korporatë? Duket si një përdorues shtesë mujor.”