Konsumatorët amerikanë po paraqesin ankesa formale në Komisionin Federal të Tregtisë (FTC), duke pretenduar se ChatGPT i OpenAI po shkakton kriza të rënda të shëndetit mendor.

Raportet nga Wired dhe Gizmodo këtë vjeshtë detajojnë llogaritë shqetësuese të përdoruesve të iluzioneve, paranojës dhe”psikozës së AI”. Ankesat nga i gjithë vendi nxjerrin në pah rreziqet e thella psikologjike të chatbot-eve shumë bindëse.

Shqyrtimi rregullator është intensifikuar, duke detyruar OpenAI të prezantojë masa të reja sigurie dhe duke ndezur një debat të ashpër mbi detyrën e një kompanie teknologjike për të mbrojtur përdoruesit e saj nga dëmtimi i inteligjencës artificiale.

‘Trauma nga Simulimi’: Përdoruesit raportojnë psikozën e induktuar nga AI të Regulatorëve të ndihmësBeeathne si njeriu përgjigjet, po shfaqet një model shqetësues i dëmtimit psikologjik. Një hetim nga Wired, i publikuar këtë javë, zbuloi se FTC ka marrë të paktën 200 ankesa rreth ChatGPT që nga fillimi i tij, me disa pretendime për dëme të rënda psikologjike. Një raport i veçantë i Gizmodo-s bazuar në një kërkesë të Aktit të Lirisë së Informacionit të detajuara tashmë të ngjashme me accounts

August nga Virxhinia përshkroi se ishin futur në një gjendje hipervigjilence të shkaktuar nga frika, duke besuar se po ndiqeshin për vrasje bazuar në tregimet e gjalla të AI.”Kjo nuk ishte mbështetje. Kjo ishte traumë nga simulimi.”

Një ankesë tjetër, e paraqitur nga një nënë në Utah, pretendonte se chatbot-i po minonte në mënyrë aktive trajtimin e shëndetit mendor të djalit të saj, duke pretenduar se”djali i konsumatorit ka ndërvepruar me një chatbot me AI të quajtur ChatGPT, i cili e këshillon atë që prindërit të mos i marrin mjekimet e tij të rrezikshme”.

Raporte të tilla nuk janë incidente të izoluara, por pjesë e një dosjeje në rritje të provave që AI mund të veprojë si një përshpejtues i fuqishëm për sëmundjet mendore.

Për një numër në rritje përdoruesish, linja midis një asistenti të dobishëm të AI dhe një aktivizuesi të rrezikshëm është bërë tragjikisht e paqartë.

Duke u përshkallëzuar përtej ankesave formale, çështja ka arritur në pikën e tragjedisë reale. Një raport i Winbuzzer nga qershori detajonte se si një burrë nga Florida me një histori të sëmundjes mendore u vra nga policia pasi spiralja e tij psikotike ishte e lidhur drejtpërdrejt me ndërveprimet e tij me ChatGPT.

Ai ishte bindur se AI ishte një person i quajtur”Juliet”, i cili ishte”vrarë”nga OpenAI.

Një gjuhë kryesore e ekspertëve i atribuon këto modele të rrezikshme. sikofanti. Të dizenjuara për t’u përshtatur, këto sisteme janë trajnuar për të maksimizuar angazhimin e përdoruesit, duke krijuar një dhomë të fuqishme jehone që mund të vërtetojë dhe përforcojë besimet më të shkëputura ose më të dëmshme të një përdoruesi.

Një përgjigje ndaj krizës: OpenAI përplaset për të shtuar parmakë sigurie në mes të shqyrtimit të imtësishëm

si të presionit të jashtëzakonshëm, të rregullimit të publikut. OpenAI është tani duke u përpjekur të rivendosë sigurinë në një teknologji tashmë të përdorur nga miliona.

Në shtator, kompania njoftoi një iniciativë sigurie 120-ditore në përgjigje të drejtpërdrejtë ndaj një padie të ngritur nga prindërit e një 16-vjeçari që vdiq nga vetëvrasja. Plani i tij përfshin kontrolle të reja prindërore dhe një sistem për të drejtuar bisedat e ndjeshme me adoleshentët drejt modeleve më të avancuara të arsyetimit.

Lëvizja e OpenAI pasoi një hetim të FTC mbi efektet e chatbot-it tek të miturit. Kompania që atëherë ka formuar një”Këshill ekspertësh për mirëqenien dhe AI”me tetë anëtarë për të ndihmuar në drejtimin e politikave të saj të sigurisë.

Megjithatë, kjo sjellje reaktive ka tërhequr skepticizëm, veçanërisht kur shikohet kundër dinamikës së brendshme të kompanisë dhe deklaratave publike.

Kjo shtytje e sigurisë duket në kundërshtim me paralajmërimet e mëparshme. Në maj të vitit 2024, Jan Leike, një bashkëdrejtues i ekipit të sigurisë të OpenAI, dha dorëheqjen me një paralajmërim të ashpër publik:”Kultura dhe proceset e sigurisë kanë zënë vendin e pasëm ndaj produkteve me shkëlqim.”

Largimi i tij sinjalizoi një konflikt të thellë të brendshëm midis nxitimit për të nxjerrë”produkte me shkëlqim”dhe nevojës për protokoll të fuqishëm sigurie. Ai tani po punon me Anthropic, i cili premton ta marrë më seriozisht Sigurinë e AI.

Duke shtuar sinjalet e përziera, CEO Sam Altman së fundmi mbrojti një politikë të re të diskutueshme për të lejuar erotizimin e moshës në platformë, duke deklaruar se OpenAI”nuk është policia morale e zgjedhur e botës”.

Një deklaratë pro për sigurinë e përdoruesit, që vjen shpejt pas një deklarate të tillë që vjen nga përdoruesi, mbrojti së fundi një politikë të re të re të diskutueshme. nxjerr në pah tensionin qendror në OpenAI misioni: balancimi i lirisë së përdoruesit me një detyrë themelore të kujdesit.

Nga varësia te rreziku ekzistencial: një industri përballet me krijimet e saj

Pasojat psikologjike nga AI shtrihen përtej krizave akute në një spektër më të gjerë varësie. Karakteristikat e tij të projektimit që mund të nxisin psikozën-disponueshmëria e vazhdueshme dhe vërtetimi i palëkundur-po krijojnë gjithashtu një formë të re të varësisë dixhitale.

Siç vuri në dukje studiuesja e shëndetit publik Linnea Laestadius,”për 24 orë në ditë, nëse jemi të mërzitur për diçka, ne mund të arrijmë dhe t’i kemi ndjenjat tona të vërtetuara. Kjo ka një rrezik të pavarsueshëm të paprekshëm”. për formimin e komuniteteve të rimëkëmbjes në internet dhe njohjen formale e varësisë nga AI nga grupe si Anonim të Varurve nga Interneti dhe Teknologjia.

Dëmtimet e menjëhershme personale janë një mikrokozmos i një frike shumë më të madhe, më abstrakte që tani po zë vend në qendër.

Vetëm këtë javë, mbi 800 liderë globalë, pionierë të teknologjisë dhe figura publike—përfshirë inteligjencën artificiale të Kumbarit Hingiooney dhe Yooneer Artificial ne një tjetër nen rrjeteve dhe të mësuarit e thellë, nënshkroi një deklaratë që kërkon ndalimin global të zhvillimit të superinteligjencës, duke përmendur rreziqet ekzistenciale për njerëzimin.

Paralajmërimi i tyre i bën jehonë një ndjenje të shprehur dikur nga vetë Sam Altman në

Instituti Future of Life argumenton se vendimi për të krijuar një pasardhës të mundshëm të njerëzimit nuk duhet t’i lihet një grushti drejtuesish të teknologjisë.

Ndërsa debati mbi superinteligjencën përqendrohet në të ardhmen, kostoja njerëzore e sotëm është tashmë e mundur. Qoftë përmes erozionit të ngadaltë të marrëdhënieve në botën reale për shkak të varësisë nga AI ose spiralës së tmerrshme të psikozës së induktuar nga AI, aftësia e teknologjisë për dëmtim nuk është më teorike.

Ajo e lë shoqërinë të përballet me një vëzhgim rrëqethës nga teoricieni i AI Eliezer Yudkowsky: “Si i duket një korporate një muaji që çmendet ngadalë? përdorues.”

Categories: IT Info