Antropic a prezentat un set detaliat de recomandări de politici AI către Oficiul pentru Știință și Tehnologie al Casei Albe (OSTP), solicitând o supraveghere a guvernului îmbunătățită în dezvoltarea inteligenței artificiale.
Compania avertizează că sistemele avansate AI ar putea suprapasa expertiza umană, în domeniul cheie, ca timpuriu ca 202 Este posibil ca SUA să nu fie pregătite pentru provocările economice și de securitate pe care le aduce această tehnologie.
Cu toate acestea, deoarece îndeamnă autoritățile de reglementare federale să joace un rol mai activ în guvernanța AI, Antropic a eliminat în mod liniștit mai multe angajamente de politică AI pe care le-a asumat în cadrul administrației Biden, ridicând întrebări cu privire la poziția sa în evoluție asupra autoregulării. src=”https://winbuzzer.com/wp-content/uploads/2024/12/Anthropic-AI-Safety.jpg”>
Anthropic’s AI Regulation Proposal and National Security Focus
The new policy recommendations submitted to OSTP focus on six key areas, including national security testing of AI models, tightening Restricții de export de semiconductor și asigurându-se că laboratoarele de cercetare AI au canale de comunicare sigure cu agenții de informații.
Antropic propune, de asemenea, o extindere pe scară largă a rețelei electrice din SUA, estimând că sistemele AI vor necesita 50 de gigawati suplimentari de infrastructură energetică în viitorul apropiat. modernizează metodele de colectare a datelor economice pentru a măsura mai bine întreruperile bazate pe AI pe piața muncii.
Antropic și-a încadrat propunerea ca răspuns la progresele rapide ale capacităților AI. Compania avertizează că sistemele AI progresează într-un ritm fără precedent, cu modele capabile să depășească experții umani în domenii precum dezvoltarea de software, luarea deciziilor și cercetarea.
Acest argument este consolidat de referințe recente ale performanței AI, care arată că modelul Claude Anthrop a îmbunătățit rata de succes a ingineriei software de la 1,96% la 49% în doar un an. Amenințări de securitate cibernetică prezentate de AI abuz. Un raport recent Microsoft a constatat că cyberattack-urile bazate pe AI au crescut la peste 600 de milioane de incidente pe zi, grupuri de hacking susținute de stat din Rusia, China și Iran, care au efectuat AI pentru atacuri din ce în ce mai sofisticate.
Aceste date subliniază recomandările antropice pentru testarea obligatorie de securitate a modelelor AI înainte de a fi depluse pe scară largă. Îndepărtează liniștit angajamentele AI din epoca Biden
În timp ce a pledat pentru reglementări mai stricte, Antropic a șters simultan mai multe angajamente de politică AI pe care le-a asumat anterior în cadrul administrației Biden.
aceste angajamente au făcut parte dintr-un cadru voluntar de siguranță congredat de firmele majore AI, inclusiv Openai și Google DeepMind, ca parte a unei părți mari de casă AI, inclusiv Openai și Google DeepMind, ca parte a unei mari firme AI, inclusiv Openai și Google DeepMind, ca parte a unei părți mari de casă AI.
Angajamentele, care s-au concentrat pe scalarea responsabilă a AI și atenuarea riscurilor, au fost eliminate în liniște de pe site-ul Anthropic fără explicații publice.
Momentul acestei inversuri a politicii este notabil, deoarece vine la fel cum compania împinge pentru o intervenție mai puternică a guvernului în guvernarea AI. Această mișcare a stârnit speculații cu privire la faptul dacă Antropic se repoziționează în mod strategic ca răspuns la modificările de reglementare sau la schimbarea dinamicii industriei.
În timp ce compania nu a comentat public cu privire la eliminarea, schimbarea ridică îngrijorări cu privire la nivelul de transparență firmele AI mențin în timp ce susține pentru a susține regulamentele externe. Action
Anthropic’s latest policy push follows its stark warning in November 2024, when it urged global regulators to act within 18 months or risk losing control over AI development.
At the time, the company highlighted several emerging risks, including AI’s ability to autonomously conduct cybersecurity breaches, facilitate biological research, and execute complex tasks with minimal human Supraveghere.
Urgența acestui apel de acțiune a fost amplificată de îngrijorările cu privire la amenințările cibernetice activate AI, care au escaladat în paralel cu progresele performanței AI.
Cercetătorii de securitate au avertizat că atacurile de phishing bazate pe AI și crearea automatizată de malware fac ca sistemele tradiționale de securitate să fie din ce în ce mai vulnerabile. Pe măsură ce modelele AI devin mai avansate, capacitatea lor de a genera profunde realiste și de a manipula conținutul digital reprezintă riscuri suplimentare pentru integritatea informațiilor.
influența corporativă și rolul tehnologiei mari în reglementarea AI
Soluția de politică de evoluție a antropică este într-un moment în care influența corporativă asupra reglementării AI este sub formă de reacționare crescută. Autoritatea de concurență și piețe din Marea Britanie a lansat o anchetă privind investițiile Google de 2 miliarde de dolari în antropic, evaluând dacă parteneriatul ar putea reduce concurența în sectorul AI.
Pe măsură ce Casa Albă examinează recomandările antropice, conversația mai largă în jurul regulamentului AI continuă să evolueze. Companii precum Antropic, OpenAI și Google conturează în mod activ narațiunea, dar intervenția guvernamentală va stabili dacă angajamentele voluntare rămân o strategie de reglementare viabilă sau dacă regulile mai stricte vor fi aplicate.
Având în vedere influența crescândă a acestor giganți tehnologici, rezultatul va avea un impact semnificativ asupra modului în care industria AI este guvernată și dacă securitatea națională și problemele etici sunt adresate în mod adecvat.