Ang Google ay nagtutulak para sa pandaigdigang pagkilos sa Artipisyal na Pangkalahatang Intelligence (AGI), na binibigyang diin ang pagkadali ng paglikha ng mga pangangalaga bago ang mga sistemang ito ay sumulong na lampas sa kontrol ng tao. Sa isang post sa blog na nai-publish kahapon sa pamamagitan ng DeepMind, ang kumpanya ay nagsiwalat ng isang bagong internasyonal na balangkas ng kaligtasan na itinayo sa paligid ng tatlong pangunahing mga haligi: pagpapalakas ng teknikal na pananaliksik, pagpapatupad ng mga sistema ng maagang pagpapadalam, at pag-aalaga ng internasyonal na kooperasyon sa pamamagitan ng mga katawan ng pamamahala. Binibigyang diin ng kumpanya na ang pangangailangan para sa mga hakbang sa kaligtasan ay hindi isang malayong pag-aalala, ngunit isang agarang hamon.”Ang isang pangunahing elemento ng aming diskarte ay ang pagkilala at paghihigpit ng pag-access sa mga mapanganib na kakayahan na maaaring maling gamitin, kasama na ang mga nagpapagana ng mga pag-atake sa cyber. Dumating sa isang oras na ang pag-unlad ng AGI ay nagpapabilis. Ang DeepMind ay ang pag-frame ng AGI hindi lamang bilang isang posibilidad sa hinaharap ngunit bilang isang napipintong katotohanan, na binibigyang diin ang pangangailangan ng mga hakbang sa pag-iingat ngayon. Mga Treaties Iminumungkahi ng Kumpanya na magtatag ng isang pang-internasyonal na katawan na susuriin ang mga sistema ng AGI, na katulad ng mga kasunduan sa nukleyar na hindi pagsasaalang-alang. Ang samahang ito ay makakatulong sa pamamahala ng mga pandaigdigang panganib at magtakda ng isang pamantayang balangkas para sa pag-unlad at pagsubok ng AGI. Noong unang bahagi ng 2024, ang kumpanya ay nabuo ng isang bagong organisasyon ng kaligtasan at pag-align ng AI, na pinagsasama ang ilan sa mga umiiral na mga koponan habang ipinakikilala ang bagong talento na nakatuon sa mga panganib ng AGI. Ang panloob na pokus na ito ay bumubuo sa mas malawak na pangako ng Google upang matiyak ang responsableng pag-unlad ng AI. Ang pagsasama ay naghanda ng daan para sa pagpapaunlad ng pamilya ng modelo ng Gemini, na nakakita ng mga makabuluhang pag-upgrade sa kamakailang paglabas ng Gemini 2.5 Pro eksperimentong-ang pinakabagong multimodal AI model na may kakayahang advanced na pangangatuwiran. Ang pagsulong na ito ay nagpapahiwatig ng lumalagong kakayahan ng DeepMind, pati na rin ang pagtuon nito sa pagtiyak ng mga makapangyarihang sistema ay responsable. Dumating ito habang ang iba pang mga pangunahing AI labs ay nagsisimulang gumawa ng mga katulad na hakbang. Ang Anthropic, isa sa mga pinakamahalagang katunggali ng DeepMind, ay naglabas ng isang katulad na babala noong Nobyembre 2024, na hinihimok ang mga regulator na gumawa ng mabilis na pagkilos sa loob ng 18 buwan upang maiwasan ang pag-unlad ng AI. Ang Anthropic ay nakikipagtulungan din sa National Nuclear Security Administration ng Estados Unidos, na nagpapatakbo ng mga red-teaming ehersisyo upang masubukan ang mga modelo ng Claude sa mga setting ng high-security. Binibigyang diin ng inisyatibo na ito ang pagtaas ng pokus sa kaligtasan ng AI, lalo na sa mga konteksto kung saan maaaring makaapekto ang AI ng pambansang seguridad. Noong Pebrero 2025, inihayag ng kumpanya ang isang paglipat sa diskarte ng AI nito kasama ang Frontier AI Framework, na naghahati sa mga modelo sa mga”mataas na peligro”at”kritikal na peligro”na mga kategorya. Ipinaliwanag ni Meta na ang mga modelo ng kritikal na peligro ay hindi na mailalabas sa publiko nang walang mahigpit na mga pananggalang sa lugar. Binigyang diin ni Meta na ang layunin nito ay upang mabawasan ang mga panganib sa sakuna na nauugnay sa mga modelong ito. Tulad ng mas maraming mga kumpanya na muling bumubuo ng kanilang mga diskarte, ang panukala ng DeepMind ay umaangkop sa isang mas malaking pattern ng pag-iingat habang ang industriya ay nakikipag-ugnay sa hinaharap ng AGI. Noong Pebrero ay inilunsad ng Anthropic ang Classifier ng Konstitusyon, isang panlabas na sistema ng pag-filter na idinisenyo upang maiwasan ang mga senyas ng kalaban at nakakapinsalang mga output mula sa mga modelo ng AI nito. Ang mga pagsubok ay nagpakita na ang classifier ay nabawasan ang mga rate ng tagumpay ng jailbreak mula sa 86% hanggang sa 4.4% lamang. Wala sa mga kalahok ang nagtagumpay sa pagsira nito nang lubusan, na binibigyang diin ang lumalagong pagiging sopistikado ng mga tool na idinisenyo upang maglaman ng mga sistema ng AI. Sa pamamagitan ng pagsusuri ng mga neural activation, maaari itong masubaybayan kung paano pinoproseso ng modelo ang impormasyon at makita ang mga potensyal na nakakapinsalang pag-uugali. Ipinakilala noong Disyembre 2024, sinusuri ni Clio ang milyun-milyong mga pag-uusap na may claude upang makita ang mga pattern ng maling paggamit. Pinahahalagahan ng system ang privacy sa pamamagitan ng hindi nagpapakilala na mga pag-uusap bago iproseso ang mga ito. Ang proactive na diskarte na ito sa pagsubaybay sa pag-uugali ng AI ay nakahanay sa diin ng DeepMind sa pangangailangan para sa patuloy na pangangasiwa ng kaligtasan habang ang mga sistema ng AI ay lumalaki nang mas sopistikado. Ang European Union’s AI Act, na naganap noong Pebrero 2, ay nagbabawal sa ilang mga sistema ng AI na itinuturing na”hindi katanggap-tanggap na mga peligro”at nagpapataw ng mahigpit na mga kinakailangan sa transparency sa mga itinuturing na mataas na peligro. Ang mga kumpanya tulad ng OpenAI at Meta ay nakatuon sa publiko na matugunan ang mga kinakailangang ito, kahit na marami pa ang sumunod nang lubusan. Ang European Commission ay nagpahiwatig na ang hindi pagsunod ay maaaring magresulta sa mabigat na multa-hanggang sa 6% ng pandaigdigang kita ng isang kumpanya para sa mga paglabag. Gayunpaman, tulad ng iniulat ng TechCrunch, ang Anthropic ay tahimik na gumulong pabalik ng ilang mga pangako sa kaligtasan na ginawa nito sa mga unang araw ng pamamahala ng Biden, na nagtataas ng mga katanungan tungkol sa pagkakapare-pareho ng mga pagsisikap sa sarili ng industriya. Ang backdrop na ito ay nagtatakda ng yugto para sa panawagan ng DeepMind para sa mas malakas na pamamahala. Ang mga kumpanya ng hardware ay may papel din sa pagbuo ng imprastraktura ng kaligtasan ng AI. Halimbawa, ipinakilala ni Nvidia ang Nemo Guardrails noong Enero 2025, isang suite ng microservice na idinisenyo upang magbigay ng mga real-time na pangangalaga laban sa mga nakakapinsalang pag-uugali ng AI. Kasama sa mga tool ang mga filter ng kaligtasan ng nilalaman, jailbreak detection, at control control, lahat na idinisenyo upang gumana kasabay ng mga umiiral na mga modelo upang matiyak na mananatili silang sumusunod sa mga protocol ng kaligtasan. Si Kari Briski, bise presidente ng mga modelo ng Enterprise AI sa NVIDIA, ay nabanggit na pinapayagan ng mga sistemang ito ang mga negosyo na”ma-secure ang kanilang mga modelo laban sa mga nakakapinsalang output”habang pinapanatili ang pagganap ng mababang-latency. Sa pamamagitan ng pagsasama ng mga teknolohiyang ito, ang NVIDIA ay nagpoposisyon mismo bilang isang pangunahing manlalaro sa kaligtasan sa hinaharap ng AI. Habang ang mga tagapagtaguyod ng Framework ng DeepMind para sa isang pandaigdigang istraktura ng pamamahala, malinaw na ang landas upang ma-secure ang AI ay mangangailangan ng pinagsama-samang aksyon mula sa parehong mga developer at tagapagbigay ng hardware.
Categories: IT Info