Ang kalalabas lang na AI Safety Index 2024 mula sa Future of Life Institute (FLI) ay nagsiwalat ng matinding pagkukulang sa mga kasanayan sa kaligtasan ng AI sa anim na nangungunang kumpanya, kabilang ang Meta, OpenAI, at Google DeepMind.

Ang AI Ang Safety Index ay niraranggo ang pinakamataas na Anthropic na may”C”na grado, ngunit ang iba pang kumpanya—Meta, OpenAI, Google DeepMind, xAI, at Zhipu AI—ay nakatanggap ng madidilim na marka, kasama ang Meta tahasang nabigo.

Ang mga natuklasan ay binibigyang-diin ang agarang pangangailangan para sa mas malakas na pamamahala at pamamahala sa peligro sa isang karera sa industriya upang bumuo ng mga mas advanced na AI system.

Prangka na inilarawan ni FLI President Max Tegmark ang sitwasyon sa IEEE Spectrum: “Nararamdaman ko na ang mga pinuno ng mga kumpanyang ito ay nakulong sa isang karera hanggang sa ibaba na walang sinuman sa kanila ang makakaalis, gaano man sila kabait sa loob.”

Ang Sinuri ng FLI ang mga kumpanya sa anim na kategorya, kabilang ang pagtatasa ng panganib, pamamahala, at umiiral na mga diskarte sa kaligtasan. Sa kabila ng pagtutok ng industriya sa pagbuo ng makapangyarihang mga sistema, ang ulat ay nagha-highlight ng malaking agwat sa pagitan ng mga teknolohikal na kakayahan at epektibong mga hakbang sa kaligtasan.

Anthropic Leads the Pack with a Meocre “C”

Ang Anthropic ay lumabas bilang pinakamahusay na gumaganap sa Index, bagama’t ang”C”na marka nito ay nagpapahiwatig na mayroon pa ring malaking puwang para sa pagpapabuti. Ang”responsableng patakaran sa pag-scale”ng kumpanya ay namumukod-tangi bilang isang positibong halimbawa.

Ang patakarang ito ay nangangailangan na ang lahat ng mga modelo ay sumailalim sa mahigpit na mga pagtatasa ng panganib upang matukoy at mapagaan ang mga sakuna na pinsala bago i-deploy. Bukod pa rito, ang Anthropic ay patuloy na nakakamit ng matatag na mga resulta sa itinatag mga benchmark sa kaligtasan, na nakakuha ito ng”B-“sa kategorya ng pagtugon sa mga kasalukuyang pinsala, ang pinakamataas na marka sa lugar na iyon.

Sa kabila ng medyo malakas nito. performance, binatikos din ang Anthropic dahil sa kawalan nito ng komprehensibong diskarte para pamahalaan ang mga umiiral na panganib—isang isyu na ibinahagi ng lahat ng kumpanyang nasuri.

Pinagmulan: FutureOfLife initiative

Nabanggit ng mga reviewer na habang ang Anthropic, OpenAI, at Google DeepMind ay nagpahayag ng mga paunang diskarte sa eksistensyal na kaligtasan, ang mga pagsisikap na ito ay nananatiling preliminary at hindi sapat upang matugunan ang laki ng hamon.

Nag-iskor ang Meta ng “F”bilang Safety Concerns Mount

Sa kabilang dulo ng spectrum, nakatanggap ang Meta ng isang bagsak na marka para sa hindi sapat na mga kasanayan sa pamamahala at kaligtasan nito. Tinukoy ng ulat ang mga malalaking gaps sa transparency, accountability frameworks, at existential na mga diskarte sa kaligtasan Ang kawalan ng makabuluhang mga hakbang sa kaligtasan ay nagdulot ng mga alalahanin tungkol sa kakayahan ng kumpanya na pamahalaan ang mga panganib na nauugnay sa mga pagpapaunlad ng AI nito.

Ang mahinang pagpapakita ng Meta ay nagha-highlight ng mas malawak na isyu sa loob ng industriya Sa kabila ng makabuluhang pamumuhunan sa AI research, maraming kumpanya ang hindi nagbigay ng priyoridad mga istruktura ng pamamahala na kailangan upang matiyak na ang kanilang mga teknolohiya ay ligtas at naaayon sa mga halaga ng lipunan na ito ay pinalala ng isang mapagkumpitensyang kapaligiran na nagbibigay ng gantimpala sa mabilis na pag-deploy kaysa sa pag-iingat.

Transparency: A Persistent Weak Spot

strong>

Ang transparency ay isa pang kritikal na lugar kung saan hindi maganda ang performance ng mga kumpanya. Ang xAI at Zhipu AI lang ang nakakumpleto ng mga iniangkop na talatanungan sa kaligtasan na ipinadala ng FLI, na nakakuha sa kanila ng bahagyang mas mataas na mga marka sa kategoryang ito.

Ang ibang mga kumpanya ay nabigo na magbigay ng mga detalyadong insight sa kanilang mga panloob na kasanayan sa kaligtasan, na higit na binibigyang-diin ang opacity na kadalasang pumapalibot sa AI development.

Bilang tugon sa ulat, naglabas ang Google DeepMind ng isang pahayag na nagtatanggol sa diskarte nito, na nagsasabing, “Habang isinasama ng Index ang ilan sa mga pagsisikap sa kaligtasan ng AI ng Google DeepMind, at sumasalamin sa mga benchmark na pinagtibay ng industriya, ang aming komprehensibong diskarte sa kaligtasan ng AI ay lumalampas sa kung ano ang nakuha.”

Gayunpaman, ang mga tagasuri ay nanatiling hindi kumbinsido, na itinuturo na kung walang higit na transparency, imposibleng masuri kung ang mga claim na ito ay isasalin sa makabuluhang aksyon.

Binigyang-diin ni Max Tegmark ang kahalagahan ng panlabas na presyon, pagpapansin, “Kung ang isang kumpanya ay hindi nakakaramdam ng panlabas na panggigipit upang matugunan ang mga pamantayan sa kaligtasan, ang ibang tao sa kumpanya ay titingnan ka lang bilang isang istorbo, isang taong sinusubukang pabagalin ang mga bagay-bagay at magtapon ng graba sa makinarya. Ngunit kung ang mga mananaliksik sa kaligtasan ay biglang may pananagutan sa pagpapabuti ng reputasyon ng kumpanya, makakakuha sila ng mga mapagkukunan, paggalang, at impluwensya.”

Mga Estratehiya sa Panganib na Panganib: Isang Karaniwang Pagkabigo

Ang isa sa mga pinaka-nakatuklas na natuklasan sa Index ay ang pangkalahatang kabiguan ng mga kumpanya na bumuo ng matatag na eksistensyal na mga diskarte sa panganib Habang ang karamihan sa mga kumpanya ay pampublikong naghahangad na lumikha ng artipisyal na pangkalahatang katalinuhan (AGI)—Mga AI system na may kakayahan sa human-level cognition—walang nakagawa ng mga komprehensibong plano para matiyak na ang mga system na ito ay mananatiling nakahanay sa mga halaga ng tao.

Na-highlight ng Tegmark ang bigat ng isyung ito, nagsasaad, “Ang totoo, walang nakakaalam kung paano kontrolin ang isang bagong species na mas matalino kaysa sa atin.”

Sinabi ni Stuart Russell ang damdaming ito, babala, “Habang lumalaki ang mga system na ito, posibleng ang kasalukuyang direksyon ng teknolohiya ay maaaring hindi kailanman susuportahan ang mga kinakailangang garantiyang pangkaligtasan.”

Ang kakulangan ng mga konkretong eksistensyal na estratehiya sa kaligtasan ay partikular na nakakabahala dahil sa dumaraming mga kakayahan ng mga AI system. Binigyang-diin ng mga tagasuri na kung walang malinaw na mga balangkas, ang mga panganib na dulot ng AGI ay maaaring mabilis na tumaas.

Kasaysayan ng AI Safety Index

Ang AI Safety Index ay nabuo sa nakaraang Mga inisyatiba ng FLI, kabilang ang malawakang tinalakay noong 2023″pause letter,” na nanawagan ng pansamantalang paghinto sa pagbuo ng mga advanced na AI system para magtatag ng matatag na mga protocol sa kaligtasan.

Ang liham, na nilagdaan ng mahigit 33,700 indibidwal, kabilang ang mga high-profile na pangalan tulad ng Sina Elon Musk at Steve Wozniak, sa huli ay binalewala ng mga kumpanyang na-target nito Ang 2024 Index ay kumakatawan sa pinakabagong pagsisikap ng FLI na panagutin ang industriya sa pamamagitan ng pampublikong pagbibigay ng marka sa kanilang kaligtasan. mga kasanayan.

Ayon kay Stuart Russell, isang propesor sa computer science sa UC Berkeley at isa sa ulat ng reviewers, “Iminumungkahi ng mga natuklasan na kahit na maraming aktibidad sa mga kumpanya ng AI na nasa ilalim ng heading ng’kaligtasan,’hindi pa ito masyadong epektibo. Wala sa kasalukuyang aktibidad ang nagbibigay ng anumang uri ng dami ng garantiya ng kaligtasan.”

Layunin ng Index na pasiglahin ang transparency, bigyang kapangyarihan ang mga internal na team ng kaligtasan, at hikayatin ang panlabas na pangangasiwa upang maiwasan ang mga potensyal na sakuna na panganib.

Isang Panawagan para sa Pagmamasid sa Regulatoryo

Ang ulat ng FLI ay nagtatapos sa isang panawagan para sa mas matibay na mga balangkas ng regulasyon upang matugunan ang mga puwang na tinukoy sa Index. Iminungkahi ng Tegmark ang paglikha ng isang oversight body na katulad ng U.S. Food and Drug Administration (FDA) upang suriin ang mga AI system bago i-deploy ang mga ito

Maaaring ipatupad ng naturang ahensya ang mga mandatoryong pamantayan sa kaligtasan, na inililipat ang mga panggigipit ng industriya mula sa. inuuna ang bilis sa pag-una sa kaligtasan.

Ang Turing Award laureate na si Yoshua Bengio, isa pang panelist sa Index, ay sumuporta sa panukalang ito, nagsasaad,”Ang mga pagsusuring tulad nito ay nagha-highlight ng mga kasanayan sa kaligtasan at hinihikayat ang mga kumpanya na gumamit ng mas responsableng mga diskarte.”Nangatuwiran si Bengio na ang independyenteng pangangasiwa ay mahalaga upang matiyak na ang mga kumpanya ay hindi pumutol sa paghahangad ng pangingibabaw sa merkado.

Paano Naipon ang Index

Ang 2024 Ang AI Safety Index ay binuo sa pamamagitan ng masusing proseso ng pagsusuri na pinamumunuan ng isang panel ng pitong independiyenteng eksperto, kabilang sina Bengio, Russell, at tagapagtatag ng Encode Justice na si Sneha Revanur.

Tinasa ng panel ang mga kumpanya sa 42 indicator na sumasaklaw sa anim na kategorya: pagtatasa ng panganib, kasalukuyang pinsala, transparency, pamamahala, eksistensyal na kaligtasan, at komunikasyon.

Pinagsama-sama ng pamamaraan ang pampublikong data, gaya ng mga dokumento ng patakaran, mga research paper, at mga ulat sa industriya, na may mga tugon sa isang custom na questionnaire. Gayunpaman, ang limitadong partisipasyon ng mga kumpanya sa prosesong ito ay binibigyang-diin ang mga hamon sa pagkamit ng transparency sa industriya.

Sinabi ni David Krueger, isang panelist at AI researcher,”Nakakatakot na ang mismong mga kumpanya na ang mga pinuno ay hinuhulaan ang AI ay maaaring wakasan ang sangkatauhan ay walang diskarte upang maiwasan ang ganoong kapalaran.”

Mga Implikasyon para sa Kinabukasan ng AI Governance

Ang Ang 2024 AI Safety Index ay naglalarawan ng kasalukuyang kalagayan ng pamamahala ng AI habang ang mga kumpanyang tulad ng Anthropic ay gumagawa ng mga hakbang, ang mga pangkalahatang natuklasan ay nagpapakita ng kakulangan ng kahandaan upang pamahalaan ang mga panganib na dulot ng mga advanced na teknolohiya ng AI ang ulat ay humihiling ng agarang pagkilos upang magtatag ng mas matibay na mga protocol sa kaligtasan at pangangasiwa sa regulasyon upang matiyak na ang AI development ay naaayon sa mga interes ng lipunan.

Bilang Tegmark nabanggit,”Kung walang panlabas na presyon at matatag na pamantayan, ang karera sa pagbuo ng AI ay maaaring humantong sa mga sakuna na kahihinatnan.”

Categories: IT Info