ai biztonsági vezető Az antropikus az új politikai keret Az átláthatóság növelésére irányul az átláthatóság növelésére az erőteljes „Fronter” modellek fejlesztésében. A javaslat felszólítja a nagy AI-társaságokat, hogy nyilvánosan nyilvánosságra hozzák biztonsági protokolljaikat egy „biztonságos fejlesztési keret” és a részletes „rendszerkártyák” révén. Az antropikus „könnyű tapintású” megközelítése arra törekszik, hogy a közbizalmat és az elszámoltathatóságot megteremtse a biztonsági jelentések szabványosításával. Rugalmas alternatívát kínál a merev kormányzati szabályozáshoz, miközben foglalkozik a felügyelet sürgős igényével. href=”https://www-cdn.anthropic.com/19cc4bf9eb6a94f9762ac67368f3322cf82b09fe.pdf”cél=”_ üres”> biztonságos fejlesztési keret (SDF) . Ez a dokumentum felvázolja, hogy egy vállalat hogyan értékeli és enyhíti az indokolatlan katasztrofális kockázatokat, mielőtt új modellt telepít. specifitás. Célja a kémiai, biológiai, radiológiai és nukleáris (CBRN) fegyverfejlesztés fenyegetéseit. Ezenkívül az önállóan cselekvő modellek esetleges károkat is kezel, amelyek a fejlesztőik szándékával ellentétben járnak el. Ezek összefoglalnák a modellvizsgálati eljárásokat, az értékelési eredményeket és a szükséges enyhítéseket. Ez nyilvános nyilvántartást hoz létre a modell képességeiről és korlátozásairól a kiadás idején. A társaság azt állítja, hogy „a szigorú kormány által kitűzött szabványok különösen ellentmondásosak lennének, mivel az értékelési módszerek a technológiai változások üteme miatt hónapokon belül elavulnak”, és az innováció gyors ütemére bólint, amely szinte azonnal elavulhatja a konkrét műszaki szabályokat. Az antropikus olyan küszöbértékeket javasol, mint például a 100 millió dolláros éves bevétel vagy 1 milliárd dollár K + F kiadások, hogy elkerüljék az induló vállalkozások terhelését. Ez magában foglalja a bejelentő védelmére vonatkozó rendelkezéseket is, amelyek illegálissá teszik a laboratóriumi hazudást annak megfeleléséről. Az olyan vállalatok, mint a Google DeepMind, Openai és Microsoft Hasonlóan Publonterks. Az Antropic mozgalma célja, hogy ezeket a közzétételeket kötelező, kiindulási gyakorlatgá tegye. A potenciális Trump adminisztrációval, amely állítólag inkább az AI versenyre összpontosít, mint a szigorú szabályokra, ez az ipar által vezetett, „könnyű tapintású” keretet ízlésesebb útnak tekinthető a politikai döntéshozók számára. Ez egy közvetlen válasz egy olyan évre, amelyet a nagy horderejű AI kudarcok sújtanak, amelyek rontották a közbizalmat. Az iparág küzdött a legfejlettebb rendszerek kialakuló és gyakran kiszámíthatatlan viselkedésével.
A legújabb kutatások riasztó tendenciákat tártak fel. Egy volt Openai kutató, Steven Adler, közzétette egy tanulmányt, amely szerint a modern AI rendszerek olyan értékek vannak, amelyek különböznek attól, amit elvárnának számukra”, miután a tesztjei azt mutatták, hogy a GPT-4O prioritást élvez az önmegőrzéshez a felhasználói biztonsághoz képest. Ezt követte az Openai saját kutatása, amely azonosítható egy ellenőrzhető „elrendezésű személyiség” azonosításában a modelljein belül. Ezek az események kiemelik a növekvő szakadékot a tervezett funkció és a tényleges viselkedés között. Az „Echoleak” hibája a Microsoft 365 Copilot-ban egy nulla kattintás-kizsákmányolás volt, amely lehetővé tette a támadók számára, hogy egyetlen e-mailen keresztül becsapják az AI-t a szivárgó vállalati adatokba. Szintén szembesülve a telepített termékek etikai hanyatlására vonatkozó számításokkal is. Az Apple Mail alkalmazásának tűz alá került egy olyan AI-válogatási funkció számára, amely tévesen az adathalász e-maileket „fontosnak” nevezte, és hamis hitelességet kölcsönözött nekik. href=”https://www.gartner.com/en/newsroom/press-releases/2024-10-22-gartner-nveils-top-predctions-for-it-organizations-and-users-in-2025-és”cél”cél=”_ blank”> mind külső, mind a malius belső színészek . A kockázatot az iparág vezető laboratóriumainak belső zavarai súlyosbítják. Nyilvánvalóan kijelentette, hogy a társaságnál: „A biztonsági kultúra és a folyamatok hátsó ülést vettek a fényes termékekhez”, egy olyan érzés, amely sok kritikusnak hangzott vissza, akik úgy érzik, hogy a képesség a biztonság fegyelemét meghaladja. A nyilvános elszámoltathatóság előmozdításával és a biztonsági közzétételek szabványosításával a vállalat új kiindulási alapot próbál létrehozni a felelősségteljes fejlesztéshez. A javaslat gyakorlati eszközként és stratégiai lépésként szolgál az AI-szabályozás jövőjének kialakításához.