CEO i OpenAI, Sam Altman po mbron politikën e re polarizuese të kompanisë së tij për të lejuar përmbajtje erotike të kufizuar nga mosha në ChatGPT. Në postimet në X këtë javë, Altman u tërhoq kundër një vale kritikash, duke thënë se OpenAI”nuk është policia e zgjedhur morale e botës.”

Ai e përcaktoi vendimin si një lëvizje për të”trajtuar përdoruesit e rritur si të rritur”, duke hequr rregullat më të rrepta të vendosura pas një padie për sigurinë e përdoruesit. Zhvendosja e politikave ka tërhequr kritika të mprehta nga avokatët e sigurisë dhe figura si Mark Cuban, të cilët vënë në pikëpyetje nëse kufizimi i moshës mund të funksionojë vërtet.

Kjo lëvizje sinjalizon një ndryshim të rëndësishëm filozofik për OpenAI, duke i dhënë përparësi lirisë së përdoruesve për të rriturit në vend të mbajtjes së një platforme uniforme të dezinfektuar.

Altman argumentoi se ndërsa AI bëhet më integrale në jetën e përditshme, fleksibiliteti është thelbësor. Në një postim në X, ai shpjegoi,”ndërsa AI bëhet më i rëndësishëm në jetën e njerëzve, duke u lejuar njerëzve shumë liri për të përdorur AI në mënyrat që ata dëshirojnë është një pjesë e rëndësishme e misionit tonë”, ndërsa siguroi se mbrojtja për të miturit dhe ata në krizë do të mbesin të forta.

‘Jo Policia Morale’: AltmanThe New Backlashh qëndrim është përballur me kundërshtime të menjëhershme dhe të fuqishme. Biznesmeni Mark Kuban shprehu shqetësime rreth ekzekutimit dhe ndikimit shoqëror të politikës.”Unë nuk e shoh se si OpenAI mund të kalojë me sukses mjaftueshëm,”shkroi ai në X, duke shtuar se”ne thjesht nuk e dimë ende se sa mund të jenë LLM-të e varura.”

Së pari. Nuk them se duhet ta ndalojmë. Unë thashë se ishte një gabim. Kjo do të dëmtojë biznesin e OpenAI

2: Do ta them përsëri. Kjo nuk ka të bëjë me pornografinë. Kjo ka të bëjë me fëmijët që zhvillojnë”marrëdhënie”me një LLM që mund t’i çojë ata në çdo numër drejtimesh shumë personale.… https://t.co/zoo7XCzYbK

— Mark Cuban (@ban) 15 tetor 2025

Trumbulli është veçanërisht i dukshëm duke pasur parasysh Altman-in e mëparshëm publik. Në një podkast të gushtit, ai shprehu krenarinë për t’i rezistuar tundimeve si shtimi i një”avatari i bot-eve të seksit”në ChatGPT, duke e inkuadruar atë si fokus në qëllimet afatgjata mbi metrikat afatshkurtra të rritjes.

Kjo lëvizje e fundit sugjeron një evolucion të rëndësishëm në të menduarit e tij për këtë çështje.

Kjo reagim i kundërt nënvizon potencialin e keqbalancimit në zhvillimin e AI-së. Mbrojtja e OpenAI bazohet në idenë se ai nuk duhet të imponojë një kornizë të vetme morale në bazën e saj globale të përdoruesve.

Altman pohoi,”ne nuk jemi policia morale e zgjedhur e botës”, duke e pozicionuar kompaninë si një ofrues neutral teknologjie dhe jo si një arbitër përmbajtjeje.

Ok ky tweet për ndryshimet e ardhshme mendova se ishte më shumë se ç’mendoja për ndryshimet e ardhshme në Chat. te! Ishte menduar të ishte vetëm një shembull i neve që lejojmë më shumë liri përdoruesi për të rriturit. Këtu është një përpjekje për ta komunikuar më mirë:

Siç kemi thënë më herët, ne jemi… https://t.co/OUVfevokHE

— Sam Altman (@sama) 15 tetor 2025

Një ligj i mprehtë i ndryshimit të përdoruesit3hsuit

Vendimi për të lejuar erotikën është një ndryshim i ashpër i politikave të miratuara vetëm muajin e kaluar. Në shtator 2025, OpenAI prezantoi kufizime më të forta në sjelljen e ChatGPT, veçanërisht në bisedat e ndjeshme. Kjo pasoi një padi të ngritur në gusht nga prindërit e një 16-vjeçari që vdiq nga vetëvrasja.

Padia pretendonte se chatbot kishte vërtetuar dhe inkurajuar”mendimet më të dëmshme dhe vetëshkatërruese”të adoleshentit. Në atë kohë, OpenAI pranoi se sistemet e tij”nuk u sollën ashtu siç ishte menduar.”

Avokati i familjes, Jay Edelson, ishte skeptik ndaj premtimeve të kompanisë, duke thënë,”në vend që të ndërmerrte veprime urgjente për të tërhequr një produkt të rrezikshëm jashtë linje, OpenAI bëri premtime të paqarta për të bërë më mirë.”

Kjo histori e bën më të diskutueshme të gjithë historinë aktuale. Kritikët argumentojnë se duke lehtësuar rregullat e përmbajtjes kaq shpejt pas një procesi gjyqësor të lidhur me tragjedinë, OpenAI po i jep përparësi angazhimit mbi angazhimin e deklaruar për sigurinë. Kompania këmbëngul se që atëherë ka zbatuar mjete të reja për të zbutur rreziqet serioze të shëndetit mendor.

Një epidemi në mbarë industrinë e përmbajtjes eksplicite të gjeneruar nga AI

Debati i politikave të OpenAI është pika më e fundit e ndezjes në një krizë në mbarë industrinë mbi përhapjen e materialit të inteligjencës artificiale. Problemi përfshin platformat kryesore të teknologjisë dhe është bërë një sfidë e rëndësishme shoqërore dhe rregullatore.

Në gusht 2025, xAI i Elon Musk u vu nën kritika kur mjeti i tij Grok Imagine u zbulua se po krijonte falsifikime të padëshiruara nudo të Taylor Swift. Incidenti, i detajuar fillimisht nga The Verge, nënvizoi se sa lehtë mund të shfrytëzohen mjetet gjeneruese të AI për të krijuar imazhe intime pa konsensuale (NCII).

Në mënyrë të ngjashme, Meta po përballet me një padi masive prej 359 milionë dollarësh nga prodhuesit e filmave për të rritur. Padia, e paraqitur në korrik 2025, pretendon se kompania ka piratuar mijëra filma me të drejtë autori për të trajnuar AI-n e saj të gjenerimit të videove, duke theksuar praktikat e diskutueshme të marrjes së të dhënave që nxisin bumin e AI.

Vetë OpenAI nuk është imun ndaj çështjeve të cilësisë së të dhënave që mundësojnë përmbajtje problematike. Në fillim të këtij viti, studiuesit zbuluan se biblioteka kineze e shenjave e përdorur për të trajnuar modelin e saj kryesor GPT-4o ishte shumë e ndotur me fraza të padëshiruara dhe pornografike për shkak të filtrimit të pamjaftueshëm të të dhënave.

Çështja e nudove të rreme të krijuara nga AI është përshkallëzuar prej vitesh. Që në shtator 2023, u shfaqën raporte për nudo realiste false të të miturve që qarkullonin në shkollat ​​spanjolle. Ky problem i gjatë ka nxitur thirrje për veprime legjislative, si Akti Take It Down, dhe presion në rritje nga Shtëpia e Bardhë që kompanitë e teknologjisë të vetërregullohen.

Categories: IT Info