Labing-anim na kilalang kumpanya ng AI, kabilang ang Google, Microsoft, IBM, at OpenAI, ang sumang-ayon na i-deactivate ang kanilang mga teknolohiya kung nagpapakita sila ng mga palatandaan na nagdudulot ng mga mapaminsalang resulta. Ang pangakong ito ay ginawa sa panahon ng AI Seoul Summit 2024 sa South Korea, isang mahalagang kaganapan kasunod ng AI Safety Summit noong nakaraang taon. Ang nakaraang summit ay nagresulta sa The Bletchley Declaration, na nilagdaan ng 28 na bansa at ng EU, na nagbalangkas ng isang pananaw para sa pamamahala ng mga panganib sa AI nang walang may-bisang mga pangako.

Frontier AI Safety Commitments

Ipinakilala ng Seoul Summit ang Frontier AI Safety Commitments, na nangangailangan ng mga kalahok na kumpanya na mag-publish ng mga framework ng kaligtasan. Idedetalye ng mga framework na ito kung paano nila pinaplanong sukatin at pamahalaan ang mga panganib na nauugnay sa kanilang mga modelo ng AI. Dapat tukuyin ng mga kumpanya kung kailan naging hindi katanggap-tanggap ang mga panganib at balangkasin ang mga aksyong gagawin nila sa mga ganitong sitwasyon. Kung mabibigo ang pagbabawas ng panganib, nangako ang mga lumagda na ihihinto ang pagbuo o pag-deploy ng problemang modelo o sistema ng AI.

Nangako ang mga lumagda sa ilang mga hakbangin, kabilang ang pagsasama-sama ng kanilang mga modelo ng AI, pagbabahagi ng impormasyon, pamumuhunan sa cybersecurity, at insentibo sa pag-uulat ng kahinaan ng third-party. Nangako rin sila na lagyan ng label ang content na binuo ng AI, unahin ang pagsasaliksik sa mga panganib sa lipunan, at gamitin ang AI para tugunan ang mga pandaigdigang hamon.

Kabilang sa mga lumagda ay ang OpenAI, Microsoft, Amazon, Anthropic, Cohere, G42, Inflection AI, Meta, Mistral AI, Naver, Samsung Electronics, Technology Innovation Institute, xAI, at Zhipu.ai. Ang mga detalye ng mga pangakong ito ay inaasahang matatapos sa “AI Action Summit”na naka-iskedyul para sa unang bahagi ng 2025.

Sumang-ayon ang mga organisasyon sa sumusunod na Frontier AI Mga Pangako sa Kaligtasan:

“Kinalabasan 1. Mabisang tinutukoy, tinatasa at pinamamahalaan ng mga organisasyon ang mga panganib kapag bumubuo at nagde-deploy ng kanilang mga frontier na modelo at system ng AI I. Tayahin ang mga panganib na dulot ng kanilang mga frontier na modelo o system sa buong AI lifecycle, kasama ang bago i-deploy ang modelo o system na iyon, at, kung naaangkop, bago at sa panahon ng pagsasanay, dapat isaalang-alang ng mga pagtatasa ng peligro ang mga kakayahan ng modelo at ang konteksto kung saan sila binuo at itinalaga, gayundin ang pagiging epektibo ng mga ipinatupad na pagpapagaan upang mabawasan ang mga panganib na nauugnay sa kanilang nakikinitaang paggamit at maling paggamit ay dapat din nilang isaalang-alang ang mga resulta mula sa panloob at panlabas na mga pagsusuri kung naaangkop, tulad ng mga independiyenteng tagasuri ng ikatlong partido, ang kanilang mga pamahalaan sa tahanan[footnote 2. ], at iba pang mga katawan na itinuturing ng kanilang mga pamahalaan na naaangkop.

II. Itakda ang mga threshold[footnote 3] kung saan ang matitinding panganib na dulot ng isang modelo o sistema, maliban kung sapat na nabawasan, ay ituturing na hindi matatagalan. Tayahin kung nalabag ang mga limitasyong ito, kabilang ang pagsubaybay kung gaano kalapit ang isang modelo o sistema sa naturang paglabag. Ang mga threshold na ito ay dapat tukuyin na may input mula sa mga pinagkakatiwalaang aktor, kabilang ang kani-kanilang mga home government ng mga organisasyon kung naaangkop. Dapat silang umayon sa mga nauugnay na internasyonal na kasunduan kung saan partido ang kanilang mga lokal na pamahalaan. Dapat ding samahan ang mga ito ng pagpapaliwanag kung paano napagpasyahan ang mga limitasyon, at ng mga partikular na halimbawa ng mga sitwasyon kung saan ang mga modelo o system ay maghahatid ng hindi matitiis na panganib.

III. Ipaliwanag kung paano matutukoy at maipapatupad ang mga pagpapagaan sa panganib upang mapanatili ang mga panganib sa loob ng tinukoy na mga limitasyon, kabilang ang mga pagbabawas sa panganib na nauugnay sa kaligtasan at seguridad gaya ng pagbabago sa mga gawi ng system at pagpapatupad ng matatag na mga kontrol sa seguridad para sa hindi pa nailalabas na mga timbang ng modelo.

IV. Itakda ang mga tahasang proseso na nilalayon nilang sundin kung ang kanilang modelo o system ay nagdudulot ng mga panganib na nakakatugon o lumampas sa mga paunang tinukoy na threshold. Kabilang dito ang mga proseso upang higit pang bumuo at mag-deploy ng kanilang mga system at modelo kung maa-assess nila na ang mga natitirang panganib ay mananatili sa ibaba ng mga limitasyon. Sa kasukdulan, nangangako ang mga organisasyon na hindi bumuo o mag-deploy ng modelo o sistema, kung hindi mailalapat ang mga pagpapagaan upang panatilihing mababa ang mga panganib sa mga limitasyon.

V. Patuloy na mamuhunan sa pagsusulong ng kanilang kakayahang magpatupad ng mga pangako i-iv, kabilang ang pagtatasa at pagkilala sa panganib, kahulugan ng mga limitasyon, at pagiging epektibo ng pagpapagaan. Dapat itong isama ang mga proseso upang masuri at masubaybayan ang kasapatan ng mga pagpapagaan, at tukuyin ang mga karagdagang pagpapagaan kung kinakailangan upang matiyak na ang mga panganib ay mananatili sa ibaba ng paunang tinukoy na mga limitasyon. Mag-aambag sila at isasaalang-alang ang umuusbong na pinakamahusay na kasanayan, mga internasyonal na pamantayan, at agham sa AI risk identification, assessment, at mitigation.

Resulta 2. Ang mga organisasyon ay may pananagutan para sa ligtas na pagbuo at pag-deploy ng kanilang hangganan. Mga modelo at sistema ng AI. Sila ay:

VI. Sumunod sa mga pangakong nakabalangkas sa I-V, kabilang ang pagbuo at patuloy na pagrepaso sa panloob na pananagutan at mga balangkas ng pamamahala at pagtatalaga ng mga tungkulin, responsibilidad at sapat na mapagkukunan upang gawin ito.

Resulta 3. Mga diskarte ng mga organisasyon sa frontier AI Ang kaligtasan ay angkop na malinaw sa mga panlabas na aktor, kabilang ang mga pamahalaan. Sila ay:

VII. Magbigay ng pampublikong transparency sa pagpapatupad ng nasa itaas (I-VI), maliban kung ang paggawa nito ay magpapataas ng panganib o magbubunyag ng sensitibong impormasyong pangkomersiyo sa antas na hindi katumbas ng benepisyo ng lipunan. Dapat pa rin silang magbahagi ng mas detalyadong impormasyon na hindi maibabahagi sa publiko sa mga pinagkakatiwalaang aktor, kasama ang kani-kanilang sariling pamahalaan o hinirang na katawan, kung naaangkop.

VIII. Ipaliwanag kung paano, kung mayroon man, ang mga panlabas na aktor, tulad ng mga pamahalaan, lipunang sibil, akademya, at publiko ay kasangkot sa proseso ng pagtatasa ng mga panganib ng kanilang mga modelo at sistema ng AI, ang kasapatan ng kanilang balangkas ng kaligtasan (tulad ng inilarawan sa ilalim ng I-VI), at ang kanilang pagsunod sa balangkas na iyon.”

Global Cooperation and Future Plans

Sa isang magkasanib na nakasulat na op-ed, Binigyang-diin ni UK Prime Minister Rishi Sunak at South Korean President Yoon Suk Yeol ang pagkaapurahan ng pagpapabilis mga pagsisikap sa pamamahala ng AINakita rin ng Seoul Summit ang pag-ampon ng Deklarasyon ng Seoul, na nagha-highlight sa kahalagahan ng interoperability sa pagitan ng mga balangkas ng pamamahala ng AI upang mapakinabangan ang mga benepisyo at mabawasan ang mga panganib. Australia, UN, OECD, at EU, kasama ng mga pinuno ng industriya.

Categories: IT Info