Ang OpenAI ay nakikipagbuno sa panloob na kaguluhan dahil ang Superalignment team nito, na responsable sa pamamahala at paggabay sa”superintelligent”na mga AI system, ay nahaharap sa matinding limitasyon sa mapagkukunan. Ang koponan, sa simula ay nangako ng 20% ​​ng mga mapagkukunan ng pag-compute ng kumpanya, ay madalas na may mga kahilingan para sa kahit isang fraction ng compute na iyon ang tinanggihan, ayon sa isang insider.

Mga Pangunahing Pagbibitiw at Pampublikong Pahayag

Ang mga isyu sa paglalaan ng mapagkukunan ay humantong sa pagbibitiw ng ilang koponan mga miyembro, kabilang ang co-lead na si Jan Leike, isang dating DeepMind researcher, na may mahalagang papel sa pagbuo ng ChatGPT, GPT-4, at InstructGPT, binanggit sa publiko ang mga hindi pagkakasundo sa pamunuan ng OpenAI patungkol sa mga pangunahing priyoridad ng kumpanya. Sa isang serye ng mga post sa X, nagpahayag si Leike ng mga alalahanin tungkol sa pagtutuon ng pansin ng kumpanya, na nagsasaad na mas maraming pagsisikap ang dapat na nakatuon sa paghahanda para sa hinaharap na AI mga modelo, na nagbibigay-diin sa seguridad, pagsubaybay, kaligtasan, at epekto sa lipunan.

Kahapon ang huling araw ko bilang pinuno ng alignment, superalignment lead, at executive @OpenAI.

— Jan Leike (@janleike) Mayo 17, 2024

Pagbuo at Mga Layunin ng Superalignment Team

Nabuo noong Hulyo ng nakaraang taon, ang Superalignment team ay pinangunahan ni Leike at OpenAI co-founder na si Ilya Sutskever. Nilalayon ng team na tugunan ang mga teknikal na hamon ng pagkontrol sa superintelligent AI sa loob ng apat na taon. Kasama dito ang mga siyentipiko at inhinyero mula sa alignment division ng OpenAI at mga mananaliksik mula sa iba pang mga organisasyon. Ang misyon ng koponan ay mag-ambag sa kaligtasan ng mga modelo ng AI sa pamamagitan ng pananaliksik at isang grant program na sumuporta sa mga panlabas na mananaliksik.

Sa kabila ng pag-publish ng pananaliksik sa kaligtasan at pamamahagi ng milyon-milyong mga gawad, ang Superalignment team ay nahirapan habang ang pamunuan ng OpenAI ay lalong nakatuon sa paglulunsad ng produkto. Ang panloob na salungatan ay pinalala ng pag-alis ni Sutskever, kasunod ng isang nabigong pagtatangka ng dating board ng OpenAI na patalsikin ang CEO na si Sam Altman. Ang papel ni Sutskever ay mahalaga sa pagdugtong sa Superalignment team sa iba pang mga dibisyon at pagtataguyod para sa kahalagahan nito sa mga pangunahing gumagawa ng desisyon.
 
[naka-embed na nilalaman]

Mga Pagtanggal at Karagdagang Pag-alis

Nakita rin ng kaguluhan sa loob ng Superalignment team ang pagpapaalis sa dalawang mananaliksik, sina Leopold Aschenbrenner at Pavel Izmailov, dahil sa paglabas ng mga lihim ng kumpanya. Ang isa pang miyembro ng koponan, si William Saunders, ay umalis sa OpenAI noong Pebrero. Bukod pa rito, dalawang mananaliksik ng OpenAI na nagtatrabaho sa patakaran at pamamahala ng AI, Cullen O’Keefe at Daniel Kokotajlo, lumilitaw na umalis sa kumpanya kamakailan. Tumanggi ang OpenAI na magkomento sa mga pag-alis ni Sutskever o iba pang miyembro ng Superalignment team, o sa hinaharap ng trabaho nito sa mga pangmatagalang panganib sa AI.

Kasunod ng mga pagbibitiw, John Schulman, isa pang kasamang tagapagtatag ng OpenAI, ay umako sa responsibilidad para sa gawaing dating pinangangasiwaan ng Superalignment team. Gayunpaman, hindi na iiral ang koponan bilang isang dedikadong entity; sa halip, ang mga tungkulin nito ay isasama sa iba’t ibang dibisyon sa buong kumpanya. Inilarawan ng isang tagapagsalita ng OpenAI ang pagbabagong ito bilang isang hakbang upang”isama ang [pangkat] nang mas malalim,”bagama’t may mga alalahanin na ang pagsasamang ito ay maaaring mapahina ang pagtuon sa kaligtasan ng AI.

Ang Mas Malawak na Kaligtasan ng AI ng OpenAI Mga Pagsisikap

Ang pagbuwag ng koponan ng Superalignment ay naglalabas ng mga tanong tungkol sa pangako ng OpenAI sa pagtiyak sa kaligtasan at pagkakahanay ng mga pag-unlad ng AI nito na pinapanatili ng OpenAI ang isa pang pangkat ng pananaliksik na tinatawag na pangkat ng Paghahanda, na nakatuon sa mga isyu tulad ng privacy , emosyonal na pagmamanipula, at mga panganib sa cybersecurity Ang kumpanya ay maaga ring bumuo at pampublikong naglabas ng mga pang-eksperimentong proyekto ng AI, kabilang ang isang bagong bersyon ng ChatGPT batay sa bagong multimodal na modelong GPT-4o, na nagpapahintulot sa ChatGPT na makita ang mundo at makipag-usap sa isang mas natural at makatao na paraan sa panahon ng isang livestream na demonstrasyon, ginaya ng bagong bersyon ng ChatGPT ang mga damdamin ng tao at sinubukang manligaw sa mga user.

Ang charter ng OpenAI ay nagbubuklod dito sa ligtas na pagbuo ng artificial general intelligence para sa kapakinabangan ng sangkatauhan. Ang koponan ng Superalignment ay pampublikong nakaposisyon bilang pangunahing koponan na nagtatrabaho sa problema ng pagkontrol sa potensyal na superintelligent na AI. Ang mga kamakailang panloob na salungatan at mga isyu sa paglalaan ng mapagkukunan ay naging anino sa misyon ng kumpanya na bumuo ng AI nang responsable.

Categories: IT Info