舊金山醫學審查員辦公室裁定,前開放式研究員Suchir Balaji成為該公司的聲音批評家,死於自殺。根據報告,根據報告,根據報告,Balaji遭受了自我造成的槍傷傷口,調查人員沒有發現犯規的證據。儘管採取了正式裁決,但他的去世仍在對Openai的內部文化,AI道德和法律挑戰進行了審查。
Balaji,26歲,他說了反對Openai對受版權保護的材料的處理,提出了其人工智能模型的擔憂在未經適當授權的情況下使用的內容培訓。在《紐約時報》(New York Times)的訴訟指控Openai非法刮擦版權內容後,他的警告引起了廣泛的關注。他的陳述有助於對AI透明度和公司問責制進行更大的討論。
屍檢結果和未解決的問題
死因裁判官的報告指出,巴拉吉的死亡是由一次槍傷引起的,沒有第三方參與的證據。執法部門確認沒有在現場強迫進入或掙扎的跡象,加強了他們自殺的結論。
他的逝世不僅提出了關於Openai的問題,而且還提出了AI舉世無常的更廣泛的風險。他的關注源於對AI模型的法律和道德審查的日益增長的審查,尤其是關於公司如何採購為系統提供動力的數據。
OpenAi反复捍衛其做法,認為其AI培訓屬於公平用途,這一說法現在是多次法律鬥爭的主題。
他對AI培訓數據的警告對齊隨著對OpenAI的越來越多的訴訟引起的擔憂,該訴訟聲稱其模型未經許可就依靠受版權保護的內容。 AI社區中的其他人對Balaji的關注得到了回應,因為有關內容創建者的賠償問題以及AI生成的材料的合法性繼續升級。
這些退出反映了建議採取AI安全措施和AI安全措施之間的摩擦日益增長的摩擦力。那些推動更快商業化的人。隨著OpenAI擴大其AI功能的擴大,內部緊張局勢已經出現在公司應開發和部署其技術的速度方面。
除了領導力的變化,OpenAI的財務挑戰以及有關其組織結構的備受矚目的訴訟,也已提高關注。儘管最近從軟銀獲得了400億美元的投資,但該公司預計在2024年虧損50億美元後仍會虧損。聯合創始人和前支持者現在轉為競爭者埃隆·馬斯克(Elon Musk)試圖通過他正在進行的訴訟和他的持續訴訟來阻止對OpenAI的重組,並且最近,以974億美元的收購競標,這使事情更加激動。一些報導表明,Balaji的死亡可能與DeepSeek R1有關,DeepSeek R1據稱與網絡增長努力有關。中國的DeepSeek被一些利用被盜培訓數據或使用未經授權的知識從Openai領先模型中提取的指控,這引起了對政府和公司如何處理AI研究的擔憂。
作為回應, Meta改變了其方法,將其方法更改為其方法。釋放自己的模型以確保AI安全並減少潛在的濫用。 Meta員工確認,在DeepSeek的R1模型發布後,Meta的AI團隊承受著巨大的壓力,稱他們改用了“恐慌模式”。
,而沒有直接證據將Balaji的死亡與DeepSeek R1聯繫在一起,他參與了討論。關於人工智能法規和道德問題,一些人推測了他的工作是否與AI發展中更廣泛的地緣政治緊張局勢相交。
OpenAI的法律問題和版權糾紛
Balaji對Openai的批評預示了該公司現在面臨的一系列法律挑戰,以減輕風險,Openai已簽署了多個許可協議,例如與News Corp和其他出版商等耗資2.5億美元的交易使用媒體巨頭的檔案中的內容。時間,新聞集團(News Corp)正在針對其他AI公司(例如困惑AI)採取法律行動,據稱未經授權刮擦內容。這些案件強調了AI公司與內容創建者之間的越來越多的緊張局勢,因為法院越來越多地要求根據版權法確定AI培訓數據應如何處理。
AGI條款和Microsoft與OpenAi的不確定夥伴關係
Balaji的死是在Openai經歷了一波引人注目的離開時。其中包括前首席技術官米拉·穆拉蒂(Mira Murati)的退出,米拉·穆拉蒂(Mira Murati)在六年後離開了公司,開始了自己的AI風險。另一個關鍵人物Miles Brundage脫離了Openai的政策團隊,理由是渴望在公司以外進行AI治理。
Openai未來的另一層不確定性是與Microsoft的協議,其中包含合同的合同條款與人工通用情報(AGI)有關。該條款允許Openai與Microsoft斷開聯繫,如果它達到了AGI,這是一個能夠在人類層面推理和學習的AI系統。
最初旨在防止對AGI的壟斷控制,該條款將緊張局勢引入了Openai的張力。與最大投資者的關係。微軟已向OpenAI投資了數十億美元,但如果Openai宣布宣布AGI突破,則其繼續從OpenAI的技術中受益的能力可能會受到危害。
這些擔憂促使Microsoft擴大了其AI Portfolio,將其AI Portfolio擴展到Openai之外。該公司一直在投資競爭AI公司,這一舉動被廣泛解釋為對Openai潛在不穩定的對沖。雖然微軟表示它仍然與Openai保持著深遠的共同致力,但其最近的操作表明,它正在準備一個場景,其中Openai可以重組其合作夥伴關係或面臨監管挫折。
AI WhistleBlowers
Balaji的案件重新激發了人們對AI行業舉報人面臨的風險的擔憂。與財務或藥品的部門(例如,在遭受公司不當行為的員工存在監管保護的地方,AI開發仍然在很大程度上不受監管。
其他AI研究人員在大聲疾呼後也面臨類似的影響。 timnit gebru ,前Google研究員,在引起對AI模型中偏見的擔憂後,被迫退出公司。巴拉吉(Balaji)對Openai的批評遵循了類似的軌跡-即使外部審查AI培訓實踐的審查增加了他的擔憂。對於那些提出道德問題的人。隨著AI模型越來越嵌入關鍵基礎設施,可能需要進行舉報人保護以確保AI開發的透明度。
監管挑戰和AI治理的未來
政府現在正在採取措施對AI公司進行更大的監督。歐洲聯盟以其AI法案領先,該法案引入了透明度要求,並對AI培訓數據提出了更嚴格的法規。在美國,立法者還在考慮與AI相關的新政策,包括要求AI公司披露其數據源的可能性。
在這些努力保持早期階段,它們表明,人們越來越認識到AI的認識公司不能沒有問責制。隨著訴訟,道德問題和企業權力鬥爭繼續塑造行業的辯論可能會加劇。
Balaji的警告是關於AI發展方向的更廣泛討論的一部分。隨著公司繼續面臨使用受版權保護的材料的訴訟,他對OpenAI培訓數據實踐的擔憂仍然相關。包括《紐約時報》訴訟在內的OpenAI面臨的法律挑戰可以重塑AI公司如何處理內容獲取。
OpenAI面臨著在試圖維持其競爭優勢的同時,難以導航快速變化的監管景觀。其許可協議是解決法律問題的戰略舉措,但正在進行的版權糾紛表明,未來AI公司可能需要與內容提供商進行更結構化的協議。