OpenAI CEO Sam Altman at Greg Brockman, co-founder at kasalukuyang presidente sa OpenAI, ay tumugon sa mga alalahanin tungkol sa kaligtasan ng AI kasunod ng pagbibitiw ni Jan Leike. Binigyang-diin nila ang pangako ng OpenAI sa mahigpit na pagsubok, tuluy-tuloy na feedback, at pakikipagtulungan sa mga pamahalaan at stakeholder para matiyak ang matatag na mga protocol sa kaligtasan.

Mga Pagbabago sa Pamumuno at Mga Alalahanin sa Kaligtasan

Ene Si Leike, na kasamang pinamunuan ang superalignment team kasama si Ilya Sutskever, ay nagbitiw pagkatapos ipahayag ang mga alalahanin na ang kaligtasan ay isinasantabi pabor sa mabilis na pag-unlad. Parehong binigyang diin ng pag-alis nina Leike at Sutskever ang mga panloob na hindi pagkakasundo sa pag-prioritize ng kaligtasan laban sa pagbabago. Ang superalignment team, na nabuo wala pang isang taon na ang nakalipas, ay inatasang mag-explore ng mga paraan para pamahalaan ang superintelligent AIs.

Si Jan Leike, sa isang thread sa X (dating Twitter), ay ipinaliwanag na hindi siya sumang-ayon sa pamumuno ng kumpanya tungkol sa”mga pangunahing priyoridad”nito sa”medyo matagal na panahon,”na humahantong sa isang”breaking point.”Sinabi ni Leike na ang”kultura at proseso ng kaligtasan ng OpenAI ay nakakuha ng backseat sa makintab na mga produkto”sa mga nakaraang taon, at ang kanyang koponan ay nahirapang makuha ang kinakailangang mga mapagkukunan para sa kanilang gawaing pangkaligtasan.

Unang tumugon si Altman sa isang maikling sagot sa post ni Leike noong Biyernes, na kinikilala na ang OpenAI ay”marami pang dapat gawin”at”nakatuon sa paggawa nito,”na nangangako ng mas mahabang post na darating. Noong Sabado, nag-post si Brockman ng ibinahaging tugon mula sa kanyang sarili at kay Altman sa X, na nagpapahayag ng pasasalamat sa trabaho ni Leike at pagsagot sa mga tanong pagkatapos ng pagbibitiw.

Talagang nagpapasalamat kami kay Jan para sa lahat ng nagawa niya para sa OpenAI, at alam naming patuloy siyang mag-aambag sa misyon mula sa labas. Dahil sa mga tanong na ibinangon ng kanyang pag-alis, gusto naming ipaliwanag nang kaunti kung paano namin iniisip ang aming pangkalahatang diskarte.

Una, mayroon kaming… https://t.co/djlcqEiLLN

— Greg Brockman (@gdb) Mayo 18, 2024

Binigyang-diin nina Brockman at Altman na ang OpenAI ay”paulit-ulit na nagpakita ng hindi kapani-paniwalang mga posibilidad mula sa pagpapalawak ng malalim na pag-aaral at pag-aralan ang mga implikasyon nito,”at nanawagan para sa internasyonal na pamamahala ng Artificial General Intelligence (AGI) bago pa nauso ang mga naturang tawag. Binanggit nila ang Preparedness Framework ng kumpanya, na hinuhulaan ang”mga panganib sa sakuna”at naglalayong pagaanin ang mga ito, bilang isang paraan upang maiangat ang gawaing pangkaligtasan.

Sa kanilang detalyadong pahayag, kinilala nina Altman at Brockman ang pagiging kumplikado ng pagtiyak na ligtas ang bagong teknolohiya at binalangkas ang kanilang diskarte sa kaligtasan ng AI. Binigyang-diin nila ang mga pagsisikap ng OpenAI na itaas ang kamalayan tungkol sa mga panganib at pagkakataon ng AGI, nagtataguyod para sa internasyonal na pamamahala, at bumuo ng mga pamamaraan upang masuri ang mga AI system para sa mga sakuna na panganib. Itinuro din nila ang malawak na gawaing ginawa upang ligtas na i-deploy ang GPT-4 at ang patuloy na mga pagpapabuti batay sa feedback ng user.

Mga Direksyon sa Hinaharap at Pananaliksik sa Kaligtasan

Naghahanap Sa hinaharap, inaasahan nina Altman at Brockman na ang mga hinaharap na modelo ng AI ay higit na maisasama sa mga real-world na application at may kakayahang magsagawa ng mga gawain sa ngalan ng mga user. Naniniwala sila na ang mga system na ito ay mag-aalok ng malaking benepisyo ngunit mangangailangan ng pangunahing gawain, kabilang ang nasusukat na pangangasiwa at maingat na pagsasaalang-alang ng data ng pagsasanay. Idiniin nila ang kahalagahan ng pagpapanatili ng mataas na pamantayan sa kaligtasan, kahit na nangangahulugan ito ng pagkaantala sa mga timeline ng pagpapalabas.

Nagtapos sina Altman at Brockman sa pagsasabing walang itinatag na gabay para sa pag-navigate sa landas patungo sa AGI. Naniniwala sila na ang empirical na pag-unawa ay gagabay sa daan at nakatuon sa pagbabalanse ng mga potensyal na benepisyo sa pagpapagaan ng mga seryosong panganib. Muli nilang pinagtibay ang kanilang pangako sa pagsasaliksik sa kaligtasan sa iba’t ibang yugto ng panahon at patuloy na pakikipagtulungan sa mga pamahalaan at stakeholder.

Categories: IT Info