Ang
Ang Anthropic ay nagsumite ng isang detalyadong hanay ng mga rekomendasyon ng patakaran ng AI sa Opisina ng Agham at Teknolohiya ng Patakaran ng White House (OSTP), na nanawagan para sa pinahusay na pangangasiwa ng gobyerno sa pag-unlad ng artipisyal na intelihensiya.
The company warns that advanced AI systems could surpass human expertise in key fields as early as 2026, and argues that without immediate intervention, the Maaaring hindi handa ang Estados Unidos para sa mga hamon sa pang-ekonomiya at seguridad na dinadala ng teknolohiyang ito. src=”https://winbuzzer.com/wp-content/uploads/2024/12/anthropic-ai-safety.jpg”>
Ang mga paghihigpit sa pag-export ng semiconductor, at tinitiyak na ang mga lab ng pananaliksik ng AI ay may ligtas na mga channel ng komunikasyon na may mga ahensya ng intelihensiya. Ang mga ahensya ng pederal upang gawing makabago ang mga pamamaraan ng pagkolekta ng data ng pang-ekonomiya upang mas mahusay na masukat ang mga pagkagambala na hinihimok ng AI sa merkado ng trabaho. Nagbabalaan ang kumpanya na ang mga sistema ng AI ay sumusulong sa isang hindi pa naganap na rate, na may mga modelo na may kakayahang higit pa sa mga eksperto ng tao sa mga lugar tulad ng pag-unlad ng software, paggawa ng desisyon, at pananaliksik. Mas malawak na pagbabanta ng cybersecurity na isinagawa ng maling paggamit ng AI. Ang isang kamakailang ulat ng Microsoft ay natagpuan na ang mga cyberattacks na hinihimok ng AI ay umakyat sa higit sa 600 milyong mga insidente bawat araw, na may mga na-back na mga grupo ng pag-hack mula sa Russia, China, at Iran na nag-agaw ng AI para sa lalong sopistikadong pag-atake. Ang anthropic ay tahimik na tinanggal ang mga Biden-era AI Commitments Ang inisyatibo. Ang hakbang na ito ay nagdulot ng haka-haka tungkol sa kung ang antropiko ay muling pag-reposisyon mismo ng madiskarteng bilang tugon sa mga pagbabago sa regulasyon o paglilipat ng mga dinamikong industriya. Ang Aksyon Oversight.
Habang ang mga modelo ng AI ay nagiging mas advanced, ang kanilang kakayahang makabuo ng mga makatotohanang deepfakes at manipulahin ang digital na nilalaman ay nagdudulot ng karagdagang mga panganib sa integridad ng impormasyon. Ang UK’s Competition and Markets Authority ay naglunsad ng isang pagsisiyasat sa $ 2 bilyong pamumuhunan ng Google sa antropiko, pagtatasa kung ang pakikipagtulungan ay maaaring mabawasan ang kumpetisyon sa sektor ng AI. Ang mga kumpanya tulad ng Anthropic, OpenAI, at Google ay aktibong humuhubog sa salaysay, ngunit ang interbensyon ng gobyerno ay matukoy kung ang mga boluntaryong pangako ay mananatiling isang mabubuhay na diskarte sa regulasyon o kung ang mga mas mahigpit na mga patakaran ay ipatutupad.