Ang San Francisco Medical Examiner’s Office ay nagpasiya na si Suchir Balaji, isang dating mananaliksik ng OpenAi na naging isang kritiko ng boses ng kumpanya, ay namatay sa pagpapakamatay.
, si Balaji ay nagdusa ng isang self-inficted gunshot sugat, at ang mga investigator ay walang nakitang katibayan ng foul play. Sa kabila ng opisyal na pagpapasya, ang kanyang pagpasa ay tumindi ang pagsisiyasat sa paligid ng panloob na kultura ng Openai, AI etika, at ligal na mga hamon. ay sinanay gamit ang nilalaman na nakuha nang walang wastong pahintulot. Ang kanyang mga babala ay nakakuha ng mas malawak na pansin kasunod ng isang demanda ng New York Times na inaakusahan ang Openai ng iligal na pag-scrape ng nilalaman na may copyright. Ang kanyang mga pahayag ay nag-ambag sa isang mas malaking talakayan tungkol sa transparency ng AI at pananagutan ng korporasyon.”>
autopsy na natuklasan at hindi nasagot na mga katanungan Kinumpirma ng pagpapatupad ng batas na walang mga palatandaan ng sapilitang pagpasok o pakikibaka sa pinangyarihan, na pinapatibay ang kanilang pagtatapos ng pagpapakamatay. Ang kanyang mga alalahanin ay nakaugat sa lumalagong ligal at etikal na pagsisiyasat ng mga modelo ng AI, lalo na tungkol sa kung paano pinagmulan ng mga kumpanya ang data na nagbibigay lakas sa kanilang mga system.
Sa mga alalahanin na nakataas sa isang pagtaas ng bilang ng mga demanda laban sa OpenAI, na sinasabing ang mga modelo nito ay umaasa sa nilalaman ng copyright na walang pahintulot. Balaji’s concerns were echoed by others in the AI community, as questions about compensation for content creators and the legality of AI-generated material continue to escalate.
These exits reflect growing friction between teams advocating for AI safety measures and Ang mga nagtutulak para sa mas mabilis na komersyalisasyon. Habang pinapalawak ng OpenAI ang mga kakayahan nito sa AI, lumitaw ang mga panloob na tensyon kung gaano kabilis dapat bumuo at i-deploy ang kumpanya nito. mga alalahanin. Sa kabila ng kamakailan-lamang na pag-secure ng isang $ 40 bilyong pamumuhunan mula sa SoftBank, ang kumpanya ay inaasahang mawalan ng pera pagkatapos ng isang $ 5 bilyong pagkawala noong 2024. Karamihan sa mga kamakailan-lamang na pinukaw ang mga bagay kahit na higit pa sa isang $ 97.4 bilyon na pag-aalis ng bid na pinatay ng lupon ng OpenAi. Ang ilang mga ulat ay iminungkahi na ang pagkamatay ni Balaji ay maaaring nauugnay sa Deepseek R1, ang malakas na modelo ng pangangatuwiran ng AI na sinasabing naka-link sa mga pagsisikap sa cyberespionage. Ang Deepseek ng China, ay inakusahan ng ilan sa paggamit ng ninakaw na data ng pagsasanay o paggamit ng hindi awtorisadong pagkuha ng kaalaman mula sa mga nangungunang modelo ng OpenAi, na nagtaas ng mga alalahanin kung paano pinangangasiwaan ng mga gobyerno at korporasyon ang pananaliksik ng AI. Paglabas ng sarili nitong mga modelo upang matiyak ang kaligtasan ng AI at bawasan ang potensyal na maling paggamit. Kinumpirma ng mga empleyado ng Meta na ang koponan ng AI ng Meta ay sumailalim sa matinding presyon kasunod ng pagpapakawala ng modelo ng R1 ng Deepseek, na nagsasabing lumipat sila sa”panic mode”. Tungkol sa regulasyon ng AI at etikal na mga alalahanin ay humantong sa ilan na mag-isip tungkol sa kung ang kanyang trabaho ay intersected na may mas malawak na geopolitical tensions sa pag-unlad ng AI. > Ang mga pintas ni Balaji ng Openai ay nagbigay ng isang serye ng mga ligal na hamon na kinakaharap ngayon ng kumpanya. Gumamit ng nilalaman mula sa mga archive ng higanteng media. Oras, ang News Corp ay hinahabol ang ligal na aksyon laban sa iba pang mga kumpanya ng AI, tulad ng pagkalito AI, dahil sa sinasabing pag-scrape ng nilalaman nang walang pahintulot. Ang mga kasong ito ay nagtatampok ng lumalagong mga tensyon sa pagitan ng mga kumpanya ng AI at mga tagalikha ng nilalaman, dahil ang mga korte ay lalong hinihiling upang matukoy kung paano dapat hawakan ang data ng pagsasanay sa AI sa ilalim ng batas ng copyright.
Kabilang sa mga ito ay ang paglabas ng dating punong opisyal ng teknolohiya na si Mira Murati, na umalis sa kumpanya pagkatapos ng anim na taon upang ilunsad ang kanyang sariling pakikipagsapalaran sa AI. Ang isa pang pangunahing pigura, Miles Brundage, ay lumayo sa koponan ng patakaran ng OpenAi, na binabanggit ang isang pagnanais na magtrabaho sa pamamahala ng AI sa labas ng kumpanya. sugnay na may kaugnayan sa Artipisyal na Pangkalahatang Intelligence (AGI). Pinapayagan ng sugnay na si Openai na masira ang ugnayan sa Microsoft kung nakamit nito ang AGI-isang sistema ng AI na may kakayahang mangangatuwiran at pag-aaral sa isang antas ng tao. Pakikipag-ugnay sa pinakamalaking mamumuhunan nito. Ang Microsoft ay namuhunan ng bilyun-bilyon sa OpenAi, gayon pa man ang kakayahang magpatuloy na makikinabang mula sa teknolohiya ng OpenAi ay maaaring mapanganib kung ang OpenAI ay nagpapahayag ng isang tagumpay sa AGI. Ang kumpanya ay namuhunan sa mga nakikipagkumpitensya na mga kumpanya ng AI, isang paglipat na malawak na binibigyang kahulugan bilang isang bakod laban sa potensyal na kawalang-tatag sa OpenAI. Habang sinabi ng Microsoft na nananatiling malalim na nakatuon sa openai, iminumungkahi ng mga kamakailang maniobra na naghahanda ito para sa isang senaryo kung saan ang OpenAi alinman ay muling pagsasaayos ng mga pakikipagsosyo o nahaharap sa mga pag-setback ng regulasyon. >
Hindi tulad ng mga sektor tulad ng pananalapi o mga parmasyutiko, kung saan umiiral ang mga proteksyon sa regulasyon para sa mga empleyado na naglalantad ng maling pag-uugali ng korporasyon, ang pag-unlad ng AI ay nananatiling hindi regular. Timnit gebru , isang dating mananaliksik sa Google, ay pinilit sa labas ng kumpanya matapos na magtaas ng mga alalahanin tungkol sa mga biases sa mga modelo ng AI. Ang mga pintas ni Balaji ng OpenAi ay sumunod sa isang katulad na tilapon-ang kanyang mga alalahanin ay tinanggal ng kumpanya kahit na ang panlabas na pagsusuri ng mga kasanayan sa pagsasanay sa AI Para sa mga nagtataas ng mga alalahanin sa etikal. Habang ang mga modelo ng AI ay naging mas naka-embed sa kritikal na imprastraktura, ang mga proteksyon ng whistleblower ay maaaring kailanganin upang matiyak ang transparency sa pag-unlad ng AI. > Ang mga gobyerno ay nagsasagawa ngayon ng mga hakbang upang magpataw ng higit na pangangasiwa sa mga kumpanya ng AI. Pinangunahan ng European Union ang paraan kasama ang AI Act nito, na nagpakilala sa mga kinakailangan sa transparency at mas mahigpit na regulasyon sa data ng pagsasanay sa AI. Sa Estados Unidos, isinasaalang-alang din ng mga mambabatas ang mga bagong patakaran na nauugnay sa AI, kasama na ang posibilidad na hinihiling ang mga kumpanya ng AI na ibunyag ang kanilang mga mapagkukunan ng data. Ang mga kumpanya ay hindi maaaring gumana nang walang pananagutan. Ang debate tungkol sa regulasyon ng AI ay malamang na tumindi bilang mga demanda, mga alalahanin sa etikal, at ang mga pakikibaka sa kapangyarihan ng korporasyon ay patuloy na humuhubog sa industriya. Ang kanyang mga alalahanin tungkol sa mga kasanayan sa data ng pagsasanay ng OpenAi ay nananatiling may kaugnayan, dahil ang mga kumpanya ay patuloy na nahaharap sa mga demanda sa paggamit ng mga materyales na may copyright. Ang mga ligal na hamon laban sa OpenAi, kabilang ang demanda ng New York Times, ay maaaring mag-reshape kung paano pinangangasiwaan ng mga kumpanya ng AI ang pagkuha ng nilalaman. Ang mga deal sa paglilisensya nito ay isang madiskarteng hakbang upang matugunan ang mga ligal na alalahanin, ngunit ang patuloy na mga hindi pagkakaunawaan sa copyright ay nagmumungkahi na ang mga kumpanya ng AI ay maaaring mangailangan ng mas nakabalangkas na mga kasunduan sa mga nagbibigay ng nilalaman sa hinaharap.