サンフランシスコ診察室は、会社の声の批評家になった元Openaiの研究者であるSuntir Balajiが自殺で亡くなったと判断しました。
報告書によると、バラジは自傷行為の銃創に苦しみ、捜査官はファウルプレイの証拠を発見しなかった。公式の判決にもかかわらず、彼の死は、Openaiの内部文化、AI倫理、および法的課題に関する精査を強めました。適切な許可なしに取得したコンテンツを使用して訓練されました。彼の警告は、ニューヨーク・タイムズが著作権で保護されたコンテンツを違法に削っていると非難していると非難しているニューヨーク・タイムズによる訴訟の後、より大きな注目を集めた。彼の声明は、AIの透明性と企業の説明責任に関するより大きな議論に貢献しました。 「>
検死の所見と未回答の質問
検死官の報告書は、バラジの死は単一の銃創によって引き起こされたと述べています。法執行機関は、自殺の結論を強化するために、現場での強制入場や闘争の兆候はないことを確認した。彼の懸念は、AIモデルの法的および倫理的精査の高まり、特に企業がシステムを動作させるデータをどのように調達するかについて根ざしていました。
Openaiは、AIトレーニングは公正使用に該当すると主張して、その慣行を繰り返し擁護しています。これは現在、複数の法的戦いの対象となっています。
Openaiに対する訴訟の増加に懸念が提起されており、そのモデルは許可なく著作権で保護されたコンテンツに依存していると主張しています。 Balajiの懸念は、AIコミュニティの他の人たちによって反映されていました。コンテンツ作成者の補償とAI生成資料の合法性に関する質問は、エスカレートし続けています。より速い商業化を求めている人。 OpenaiがAIの能力を拡大するにつれて、会社がそのテクノロジーをどれだけ迅速に開発および展開すべきかについて内部緊張が浮上しています。懸念事項。最近SoftBankからの400億ドルの投資を確保したにもかかわらず、同社は2024年に50億ドルの損失を負った後、お金を失うと予測されています。最近では、Openaiの取締役会によって断られた974億ドルの買収入札でさらに物事を攪拌しました。いくつかの報告によると、バラジの死は、サイバースピオンの取り組みに関連しているとされる強力なAI推論モデルであるDeepseek R1と関連している可能性があることを示唆しています。中国のDeepSeekは、盗まれたトレーニングデータを利用したり、Openaiの主要なモデルからの不正な知識抽出を使用したりして、政府と企業がAIの研究をどのように処理するかについての懸念を提起することで非難されています。 AIの安全性を確保し、潜在的な誤用を減らすために、独自のモデルをリリースします。 METAの従業員は、MetaのAIチームがDeepseekのR1モデルのリリースに続いて「パニックモード」に切り替えたと言って激しい圧力を受けたことを確認しました。 AIの規制と倫理的懸念については、彼の仕事がAI開発におけるより広範な地政学的緊張と交差しているかどうかについて推測することになりました。 > Openaiに対するBalajiの批判は、同社が現在直面している一連の法的課題を予見しました。メディアの巨人のアーカイブのコンテンツを使用してください。 Time、News Corpは、許可なしにコンテンツを削減したとされる困惑AIなどの他のAI企業に対する法的措置を追求しています。これらのケースは、AI企業とコンテンツクリエーターの間の緊張の高まりを強調しています。裁判所は、AIのトレーニングデータを著作権法に基づいて処理する方法を決定するよう求められています。
Balajiの死は、Openaiが有名な出発の波を経験したときに来ました。その中には、元最高技術責任者のミラ・ムラティの退場がありました。ミラ・ムラティは、6年後に自分のAIベンチャーを立ち上げるために会社を去りました。もう1つの重要な人物であるMiles Brundageは、Openaiの政策チームから離れ、会社の外でAIガバナンスに取り組みたいという願望を挙げました。人工一般情報(AGI)に関連する条項。この条項は、OpenaiがAGIを達成した場合、Microsoftとの関係を切断することを許可します。これは、人間レベルで推論と学習できるAIシステムです。最大の投資家との関係。 Microsoftは数十億をOpenaiに投資していますが、OpenaiがAGIのブレークスルーを宣言すると、Openaiの技術の恩恵を継続する能力は危険にさらされる可能性があります。同社は競合するAI企業に投資しており、Openaiでの潜在的な不安定性に対するヘッジとして広く解釈されている動きです。 MicrosoftはOpenaiに深くコミットしたままであると述べていますが、最近の操作は、Openaiがパートナーシップを再構築するか、規制上の後退に直面するシナリオに備えていることを示唆しています。 >
Balajiの事件は、AI業界の内部告発者が直面しているリスクに対する懸念を再燃させました。企業の不正行為を暴露する従業員に規制保護が存在する金融や医薬品などのセクターとは異なり、AIの開発はほとんど規制されていません。 元Googleの研究者であるtimnit gebru は、AIモデルのバイアスに関する懸念を提起した後、会社から追い出されました。 Openaiに対するBalajiの批判は同様の軌跡に従いました。AIトレーニング慣行の外部精査が増加したとしても、彼の懸念は会社によって却下されました。倫理的懸念を提起する人のために。 AIモデルが重要なインフラストラクチャに埋め込まれると、AI開発の透明性を確保するために内部告発者の保護が必要になる場合があります。 >政府は現在、AI企業に大きな監視を課すための措置を講じています。欧州連合は、AI法を導入し、AIのトレーニングデータに関するより厳しい規制を導入したAI法を導きました。米国では、議員がAI企業にデータソースを開示することを要求する可能性など、新しいAI関連のポリシーも検討しています。企業は説明責任なしでは運営できません。 AI規制に関する議論は、訴訟、倫理的懸念、および企業の闘争が業界を形作り続けているため、激化する可能性があります。企業が著作権で保護された資料の使用をめぐる訴訟に直面し続けているため、Openaiのトレーニングデータ慣行に関する彼の懸念は引き続き関連しています。 New York Timesの訴訟を含むOpenaiに対する法的課題は、AI企業がコンテンツの獲得をどのように処理するかを再構築する可能性があります。そのライセンス取引は法的懸念に対処するための戦略的な動きですが、進行中の著作権紛争は、AI企業が将来コンテンツプロバイダーとより多くの構造化された契約を必要とする可能性があることを示唆しています。