A San Francisco Orvosi Vizsgáló Irodája úgy döntött, hogy Suchir Balaji, az Openai volt kutatója, aki a társaság vokális kritikájává vált, öngyilkossággal halt meg.

A jelentés szerint a jelentés szerint , Balaji önmagában okozott pisztoly sebet szenvedett, és a nyomozók nem találtak bizonyítékot a szabálytalanságra. A hivatalos döntés ellenére elmúlása fokozta az Openai belső kultúrája, az AI etika és a jogi kihívások körében történő ellenőrzést. megfelelő engedély nélkül megszerzett tartalom felhasználásával képzettek. Figyelmeztetései szélesebb körű figyelmet kapott a New York Times peres eljárása után, azzal vádolva az Openai-t, hogy illegálisan kaparja a szerzői joggal védett tartalmat. Nyilatkozatai hozzájárultak az AI átláthatóságáról és a vállalati elszámoltathatóságról szóló nagyobb vitához.”>

Boncolási eredmények és megválaszolatlan kérdések

A Coroner jelentése kimondja, hogy Balaji halálát egyetlen lövési seb okozta, a harmadik fél bevonására vonatkozó bizonyíték nélkül. A bűnüldözés megerősítette, hogy a helyszínen nem voltak kényszerített belépés vagy küzdelem jelei, megerősítve az öngyilkosság következtetéseit. Aggodalmai az AI modellek növekvő jogi és etikai ellenőrzésében gyökerezik, különös tekintettel arra, hogy a vállalatok miként fordítják a rendszerüket előmozdító adatokat.

Az Openai többször megvédte gyakorlatait, azzal érvelve, hogy AI képzése tisztességes felhasználás alá tartozik-ez az állítás, amely ma már több jogi csata tárgya. Az OpenAi elleni egyre több peres eljárás során felvetett aggodalmakkal, amelyek azt állítják, hogy modelljei engedély nélkül támaszkodnak a szerzői joggal védett tartalomra. Balaji aggodalmait az AI közösség másjai visszatükrözték, mivel a tartalom alkotóinak kompenzációjával és az AI által generált anyag jogszerűségével kapcsolatos kérdések továbbra is eszkalálódnak. Azok, akik a gyorsabb kereskedelemre törekszenek. Ahogy az Openai kibővíti AI képességeit, belső feszültségek alakultak ki annak érdekében, hogy a vállalat milyen gyorsan fejlessze és telepítse technológiáját. aggodalmak. Annak ellenére, hogy a közelmúltban 40 milliárd dolláros beruházást biztosított a SoftBank-tól, a társaság várhatóan pénzt veszít egy 5 milliárd dolláros veszteség után 2024-ben. Az társalapító és az egykori támogató, aki most, Elon Musk versenytárssá vált, megpróbálja blokkolni az Openai átszervezését a folyamatban lévő peres eljárásával, és a folyamatban lévő peres eljárásával, és A legutóbb még jobban felgyorsította a dolgokat egy 97,4 milliárd dolláros átvételi ajánlatgal, amelyet az Openai igazgatósága elutasított. Egyes jelentések azt sugallják, hogy Balaji halála összefüggésben lehet a DeepSeek R1-rel, a hatalmas AI érvelési modellvel, amely állítólag a Cyberespionage erőfeszítéseihez kapcsolódik. Kína mélységét az ellopott képzési adatok felhasználásával vagy az Openai vezető modelleiből való jogosulatlan tudáskivonás felhasználásával vádolják, aggodalmakat vetve fel a kormányok és a vállalatok kezelése az AI kutatás kezelésére.

Válaszként a Meta megváltoztatta megközelítését Saját modelljeinek kiadása az AI biztonságának biztosítása és a lehetséges visszaélés csökkentése érdekében. A Meta alkalmazottai megerősítették, hogy a Meta AI-csoportja intenzív nyomás alá került a DeepSeek R1 modelljének megjelenése után, mondván, hogy „pánik módra” váltottak. Az AI-szabályozásról és az etikai aggodalmakról arra késztettek néhányat, hogy spekuláljanak arról, hogy munkája szélesebb geopolitikai feszültségekkel keresztezi-e az AI fejlődését. > Balaji az OpenAi-val szembeni kritikája egy sor jogi kihívást jelentett, amelyekkel a vállalat most szembesül. Használjon tartalmat a média óriás archívumából. Az idő, a News Corp jogi lépéseket folytat más AI cégek, például a zavart AI ellen, az állítólagos tartalom engedély nélküli lekaparása miatt. Ezek az esetek kiemelik az AI-társaságok és a tartalom alkotói közötti növekvő feszültségeket, mivel a bíróságokat egyre inkább felkérik, hogy meghatározzák, hogyan kell kezelni az AI képzési adatokat a szerzői jogi törvény alapján.

Balaji halála abban az időben történt, amikor az Openai magas rangú távozások hullámát tapasztalta. Közülük volt Mira Murati korábbi technológiai igazgatója kilépése, aki hat év után elhagyta a társaságot, hogy elindítsa saját AI vállalkozását. Egy másik kulcsfontosságú szám, Miles Brundage, kilépett az Openai politikai csapatától, hivatkozva arra, hogy a társaságon kívüli AI irányításon dolgozzon. A mesterséges általános intelligenciával (AGI) kapcsolódó záradék. A záradék lehetővé teszi az Openai számára, hogy megszakítsa a kapcsolatokat a Microsoft-szal, ha az AGI-t eléri-egy olyan AI rendszert, amely képes emberi szinten érvelni és tanulni. kapcsolat a legnagyobb befektetővel. A Microsoft milliárdokat fektetett be az Openai-ba, ám az Openai technológiájának továbbra is előnyös képessége veszélyeztethető, ha az Openai AGI áttörést hirdet. A társaság befektet a versenyző AI cégekbe, ezt a lépést széles körben értelmezve az Openai potenciális instabilitása elleni fedezeti célként. Miközben a Microsoft azt állítja, hogy továbbra is mélyen elkötelezett az Openai-nál, a legutóbbi manőverei azt sugallják, hogy felkészül egy olyan forgatókönyvre, ahol az Openai vagy átalakítja partnerségét, vagy szabályozási visszaesésekkel szembesül. >

Balaji ügye uralkodott az AI iparágban a bejelentőkkel szembeni kockázatokkal kapcsolatos aggodalmakkal kapcsolatban. Ellentétben az olyan szektorokkal, mint a pénzügyek vagy a gyógyszerek, ahol a vállalati kötelességszegésnek kitett alkalmazottak számára szabályozási védelem létezik, az AI fejlesztése nagyrészt nem szabályozatlan. Timnit Gebru , a korábbi Google kutató, kiszorították a társaságból, miután aggodalmakat vetett fel az AI modellekben az elfogultsággal kapcsolatban. Balaji Openai kritikája hasonló pályát követte-az aggodalmait a társaság elutasította, még akkor is, amikor az AI képzési gyakorlatok külső ellenőrzése növekedett. Azok számára, akik etikai aggodalmakat vetnek fel. Ahogy az AI modellek egyre inkább beágyazódnak a kritikus infrastruktúrába, szükség lehet a bejelentő védelmére az AI fejlődés átláthatóságának biztosításához. > A kormányok most lépéseket tesznek az AI-társaságok nagyobb felügyeletének előírása érdekében. Az Európai Unió vezette az utat az AI-törvényével, amely átláthatósági követelményeket és szigorúbb szabályokat vezetett be az AI képzési adatokról. Az Egyesült Államokban a jogalkotók új AI-vel kapcsolatos politikákat is fontolgatnak, ideértve azt a lehetőséget, hogy az AI cégeket megköveteljék az adatforrások nyilvánosságra hozataláról. A vállalatok nem működhetnek elszámoltathatóság nélkül. Az AI-szabályozásról szóló vita valószínűleg fokozódik, mivel a perek, az etikai aggodalmak és a vállalati hatalmi küzdelmek továbbra is az iparág alakítják. Az Openai képzési adatgyakorlatával kapcsolatos aggodalmai továbbra is relevánsak, mivel a vállalatok továbbra is peres eljárásokkal szembesülnek a szerzői joggal védett anyagok felhasználásával kapcsolatban. Az Openai elleni jogi kihívások, beleértve a New York Times pert is, átalakíthatják, hogy az AI-társaságok hogyan kezelik a tartalom megszerzését. Engedélyezési ügyletei stratégiai lépés a jogi aggályok kezelésére, de a folyamatos szerzői jogi viták azt sugallják, hogy az AI-társaságoknak a jövőben is strukturált megállapodásokra lehet szükségük a tartalomszolgáltatókkal.

Categories: IT Info