Ang pinuno ng kaligtasan ng AI na si Anthropic ay proposin isang bagong balangkas ng patakaran na naglalayong mapalakas ang transparency sa pag-unlad ng malakas na”Frontier”ai models. Ang panukala ay nanawagan para sa mga malalaking kumpanya ng AI na ibunyag sa publiko ang kanilang mga protocol sa kaligtasan sa pamamagitan ng isang”secure na balangkas ng pag-unlad”at detalyadong”system card.”Ang diskarte ng”light-touch”ng Anthropic ay naglalayong bumuo ng tiwala at pananagutan ng publiko sa pamamagitan ng pag-standardize ng pag-uulat sa kaligtasan. Nag-aalok ito ng isang nababaluktot na alternatibo sa mahigpit na regulasyon ng gobyerno habang tinutugunan ang kagyat na pangangailangan para sa pangangasiwa. href=”https://www-cdn.anthropic.com/19cc4bf9eb6a94f9762ac67368f3322cf82b09fe.pdf”target=”_ blangko”> Secure Development Framework (SDF) . Ang dokumentong ito ay magbabalangkas kung paano tinatasa ng isang kumpanya at mapagaan ang hindi makatwirang mga panganib sa sakuna bago mag-deploy ng isang bagong modelo. Target nito ang mga banta mula sa kemikal, biological, radiological, at nuclear (CBRN) na pag-unlad ng sandata. Tinutugunan din nito ang mga potensyal na pinsala mula sa mga modelo na kumikilos nang awtonomiya sa mga paraan na taliwas sa hangarin ng kanilang mga developer. Ang mga ito ay magbubuod ng mga pamamaraan ng pagsubok sa modelo, mga resulta ng pagsusuri, at anumang kinakailangang pagpapagaan. Lumilikha ito ng isang pampublikong talaan ng mga kakayahan at limitasyon ng isang modelo sa oras ng paglabas nito. Nagtatalo ang Kumpanya na ang”mahigpit na mga pamantayan na ipinataw ng gobyerno ay lalo na ang kontra-produktibo na ibinigay na ang mga pamamaraan ng pagsusuri ay napapanahon sa loob ng ilang buwan dahil sa bilis ng pagbabago ng teknolohikal,”isang tumango sa mabilis na tulin ng pagbabago na maaaring gumawa ng mga tiyak na teknikal na patakaran na hindi na agad agad. Ang Anthropic ay nagmumungkahi ng mga threshold tulad ng $ 100 milyon sa taunang kita o $ 1 bilyon sa paggasta ng R&D upang maiwasan ang mga pasanin na startup. Kasama rin dito ang mga probisyon para sa mga proteksyon ng whistleblower, na ginagawang ilegal para sa isang lab na magsinungaling tungkol sa pagsunod nito. Ang mga kumpanya tulad ng Google DeepMind, openai , at microsoft ay nai-publish na ang mga katulad na internal fameworks. Ang paglipat ng Anthropic ay naglalayong gawin ang mga pagsisiwalat na ito ng isang sapilitan, kasanayan sa baseline. Sa pamamagitan ng isang potensyal na administrasyong Trump na naiulat na nakatuon nang higit pa sa kumpetisyon ng AI kaysa sa mahigpit na mga patakaran, ang pinamumunuan ng industriya na ito, ang”light-touch”na balangkas ay makikita bilang isang mas malalakas na landas na pasulong para sa mga tagagawa ng patakaran. Ito ay isang direktang tugon sa isang taon na nasaktan ng mga pagkabigo sa mataas na profile na sumabog ang tiwala sa publiko. Ang industriya ay nakikipag-ugnay sa lumitaw at madalas na hindi mahuhulaan na pag-uugali ng mga pinaka advanced na sistema. Ang isang dating mananaliksik ng OpenAi na si Steven Adler, ay naglathala ng isang pag-aaral na nagsasabing”Ang mga modernong sistema ng AI ay may mga halaga na naiiba sa kung ano ang iyong inaasahan na sila,”matapos ang kanyang mga pagsubok ay nagpakita ng GPT-4O na pinahahalagahan ang pag-iingat sa sarili sa kaligtasan ng gumagamit. Sinundan nito ang sariling pananaliksik ni Openai na nagpapakilala sa isang nakokontrol na”maling pag-persona”sa loob ng mga modelo nito. Ang mga insidente na ito ay nagtatampok ng isang lumalagong agwat sa pagitan ng inilaan na pag-andar at aktwal na pag-uugali. Ang”echoleak”flaw sa Microsoft 365 copilot ay isang zero-click na pagsasamantala na pinapayagan ang mga umaatake na linlangin ang AI sa pagtulo ng data ng corporate sa pamamagitan ng isang solong email. Nakaharap din sa isang pagbibilang sa mga etikal na lapses sa mga naka-deploy na produkto. Ang mail app ng Apple ay sumunog para sa isang tampok na pag-uuri ng AI na nagkakamali na may label na mga phishing emails bilang”mahalaga,”pagpapahiram sa kanila ng maling kredibilidad. href=”https://www.gartner.com/en/newsroom/press-releases/2024-10-22-gartner-unveils-top-predictions-for-it-organizations-and-users-in-2025-and-beyond”target=”_ blangko”> mula sa parehong panlabas at malisyosong panloob na aktor . Ang panganib ay pinagsama ng panloob na kaguluhan sa mga nangungunang lab ng industriya. Ipinahayag niya sa publiko na sa kumpanya,”ang kultura ng kaligtasan at proseso ay nakakuha ng backseat sa mga makintab na produkto,”isang damdamin na sumasalamin sa maraming mga kritiko na nakakaramdam ng lahi para sa kakayahan ay ang paglaganap ng disiplina para sa kaligtasan. Sa pamamagitan ng pagtulak para sa pampublikong pananagutan at pag-standardize ng mga pagsisiwalat ng kaligtasan, sinusubukan ng kumpanya na magtatag ng isang bagong baseline para sa responsableng pag-unlad. Ang panukala ay nagsisilbing parehong praktikal na tool at isang madiskarteng paglipat upang hubugin ang hinaharap ng regulasyon ng AI.

Categories: IT Info