Zyra e Ekzaminuesit Mjekësor të San Francisko ka vendosur që Suchir Balaji, një ish-studiues i Openai që u bë një kritik i zëshëm i kompanisë, vdiq nga vetëvrasja.

sipas raportit , Balaji pësoi një plagë me armë zjarri të vetë-shkaktuar dhe hetuesit nuk gjetën asnjë provë të lojërave të gabuara. Megjithë vendimin zyrtar, kalimi i tij ka intensifikuar shqyrtimin rreth kulturës së brendshme të Openai, etikës së AI dhe sfidave ligjore. u trajnuan duke përdorur përmbajtje të fituar pa autorizim të duhur. Paralajmërimet e tij fituan vëmendje më të gjerë pas një procesi gjyqësor nga New York Times duke akuzuar Openai për copëzimin e paligjshëm të përmbajtjes së mbrojtur nga të drejtat e autorit. Deklaratat e tij kontribuan në një diskutim më të madh në lidhje me transparencën e AI dhe përgjegjshmërinë e korporatave.”>

Gjetjet e autopsisë dhe pyetjet pa përgjigje

Raporti i Coroner thotë se vdekja e Balajit ishte shkaktuar nga një plagë e vetme me armë zjarri, pa asnjë provë të përfshirjes së palëve të treta. Zbatimi i ligjit konfirmoi se nuk kishte shenja të hyrjes së detyruar ose luftës në vendngjarje, duke forcuar përfundimin e tyre për vetëvrasjen. Shqetësimet e tij ishin të rrënjosura në kontrollin në rritje juridik dhe etik të modeleve të AI, veçanërisht në lidhje me mënyrën se si kompanitë burojnë të dhënat që i fuqizojnë sistemet e tyre.

Openai ka mbrojtur vazhdimisht praktikat e tij, duke argumentuar se trajnimi i tij i AI bie nën përdorim të drejtë-një pretendim që tani është objekt i betejave të shumta ligjore. Me shqetësimet e ngritura në një numër në rritje të padive kundër Openai, të cilat pretendojnë se modelet e tij mbështeten në përmbajtje të mbrojtur nga të drejtat e autorit pa leje. Shqetësimet e Balajit u bënë jehonë nga të tjerët në komunitetin e AI, pasi pyetjet në lidhje me kompensimin e krijuesve të përmbajtjes dhe ligjshmërinë e materialit të gjeneruar nga AI vazhdojnë të përshkallëzohen. Ata që kërkojnë komercializim më të shpejtë. Ndërsa Openai zgjeron aftësitë e saj të AI, tensionet e brendshme janë shfaqur se sa shpejt duhet të zhvillojë dhe të vendosë kompania e saj. shqetësimet. Pavarësisht se kohët e fundit siguroi një investim prej 40 miliardë dollarësh nga SoftBank, kompania parashikohet të humbasë para pas një humbje prej 5 miliardë dollarësh në 2024. Bashkëthemeluesi dhe ish-mbështetësi i kthyer tani konkurrenti Elon Musk po përpiqet të bllokojë një ristrukturim të Openai me padinë e tij të vazhdueshme, dhe Kohët e fundit i nxiti gjërat edhe më shumë me një ofertë për marrjen e 97.4 miliardë dollarëve e cila u hodh poshtë nga bordi i Openai. Disa raporte kanë sugjeruar që vdekja e Balajit mund të jetë e lidhur me Deepseek R1, modeli i fuqishëm i arsyetimit të AI që dyshohet se lidhet me përpjekjet në internet. Deepseek i Kinës, është akuzuar duke përdorur të dhëna të vjedhura të trajnimit ose duke përdorur nxjerrjen e njohurive të paautorizuara nga modelet kryesore të Openai, duke ngritur shqetësime për mënyrën sesi qeveritë dhe korporatat trajtojnë hulumtimin e AI. duke lëshuar modelet e veta për të siguruar sigurinë e AI dhe për të zvogëluar keqpërdorimin e mundshëm. Punonjësit e meta konfirmuan që ekipi i AI i Meta u vu nën presion intensiv pas lëshimit të modelit R1 të Deepseek, duke thënë se ata kaluan në”Mode Panic”. Rreth rregullimit të AI dhe shqetësimeve etike ka bërë që disa të spekulojnë nëse puna e tij e kryqëzuar me tensione më të gjera gjeopolitike në zhvillimin e AI. > Kritikat e Balajit ndaj Openai parashikuan një seri sfidash ligjore me të cilat po përballet kompania. Përdorni përmbajtje nga arkivat e gjigantit të mediave. Koha, News Corp po ndjek veprime juridike kundër firmave të tjera të AI, të tilla si hutimi i AI, për gjoja scraping përmbajtje pa autorizim. Këto raste nxjerrin në pah tensione në rritje midis kompanive të AI dhe krijuesve të përmbajtjes, pasi gjykatat po kërkohen gjithnjë e më shumë për të përcaktuar se si të dhënat e trajnimit të AI duhet të trajtohen sipas ligjit të të drejtave të autorit.

Vdekja e Balaji erdhi në një kohë kur Openai përjetoi një valë të largimeve të profilit të lartë. Midis tyre ishte dalja e ish Zyrtarit Kryesor të Teknologjisë Mira Murati, e cila u largua nga kompania pas gjashtë vjetësh për të filluar sipërmarrjen e saj të AI. Një tjetër figurë kryesore, Miles Brundage, u largua nga ekipi i politikave të Openai, duke përmendur një dëshirë për të punuar në qeverisjen e AI jashtë kompanisë. Klauzola në lidhje me Inteligjencën e Përgjithshme Artificiale (AGI). Klauzola i lejon Openai të ndërpresë lidhjet me Microsoft nëse arrin AGI-një sistem AI i aftë për të arsyetuar dhe mësuar në një nivel njerëzor. marrëdhënie me investitorin e saj më të madh. Microsoft ka investuar miliarda në Openai, megjithatë aftësia e tij për të vazhduar të përfitojë nga teknologjia e Openai mund të rrezikohet nëse Openai shpall një përparim të AGI. Kompania ka investuar në firmat konkurruese të AI, një veprim i interpretuar gjerësisht si një mbrojtje kundër paqëndrueshmërisë së mundshme në Openai. Ndërsa Microsoft thotë se mbetet thellësisht i angazhuar me Openai, manovrat e saj të fundit sugjerojnë se po përgatitet për një skenar ku Openai ose ristrukturon partneritetet e saj ose përballet me pengesat rregullatore. >

çështja e Balaji ka ringjallur shqetësime për rreziqet me të cilat përballen bilbilat në industrinë e AI. Për dallim nga sektorët e tillë si financat ose farmaceutikët, ku ekzistojnë mbrojtje rregullatore për punonjësit që ekspozojnë sjelljet e korporatave, zhvillimi i AI mbetet kryesisht i parregulluar. Timnit gebru , një ish studiues i Google, u detyrua të dilte nga kompania pasi ngriti shqetësime për paragjykimet në modelet e AI. Kritikat e Balaji për Openai ndoqën një trajektore të ngjashme-shqetësimet e tij u hodhën poshtë nga kompania edhe ndërsa kontrolli i jashtëm i praktikave të trajnimit të AI u rrit. Për ata që rritin shqetësime etike. Ndërsa modelet e AI bëhen më të ngulitura në infrastrukturën kritike, mbrojtjet e bilbilave mund të jenë të nevojshme për të siguruar transparencë në zhvillimin e AI. > Qeveritë tani po ndërmarrin hapa për të vendosur një mbikëqyrje më të madhe për kompanitë e AI. Bashkimi Evropian ka udhëhequr rrugën me Aktin e tij të AI, i cili prezantoi kërkesat e transparencës dhe rregulloret më të rrepta për të dhënat e trajnimit të AI. Në Shtetet e Bashkuara, ligjvënësit po shqyrtojnë gjithashtu politika të reja të lidhura me AI, duke përfshirë mundësinë e kërkimit të firmave të AI të zbulojnë burimet e tyre të të dhënave. Kompanitë nuk mund të operojnë pa përgjegjësi. Debati mbi rregulloren e AI ka të ngjarë të intensifikohet si padi, shqetësime etike dhe luftërat e pushtetit të korporatave vazhdojnë të formojnë industrinë. Shqetësimet e tij për praktikat e të dhënave të trajnimit të Openai mbeten të rëndësishme, pasi kompanitë vazhdojnë të përballen me padi për përdorimin e materialeve të mbrojtura nga të drejtat e autorit. Sfidat ligjore kundër Openai, përfshirë padinë e New York Times, mund të riformulojnë se si kompanitë e AI trajtojnë përvetësimin e përmbajtjes. Marrëveshjet e licencimit të saj janë një veprim strategjik për të adresuar shqetësimet ligjore, por mosmarrëveshjet në vazhdim të të drejtave të autorit sugjerojnë që kompanitë e AI mund të kenë nevojë për marrëveshje më të strukturuara me ofruesit e përmbajtjes në të ardhmen.

Categories: IT Info