A Google DeepMind frissítette a legfontosabb AI biztonsági szabályokat az új és komoly kockázatok kezelése érdekében. Hétfőn a cég kiadta a Frontier Safety keretének 3.0 verzióját. Ez magában foglalja azt a jövőbeli esélyt, hogy az AI ellenálljon az emberi operátorok bezárásának. A frissítés egy szélesebb iparági erőfeszítés része, amely az egyre erősebb AI rendszerek veszélyeinek kezelésére és a Public Trust felépítésére irányul. Ez a Google legátfogóbb kísérletét képviseli, amelyben még a legfejlettebb AI modellek azonosítására és enyhítésére irányulnak és enyhítik a mesterséges általános intelligencia (AGI) felé. href=”https://storage.googleapis.com/deepmind-media/deepmind.com/blog/strengthening-our-Frontier-safety-framework/frontier-safety-framework_3.pdf”cél=”_ üres”> Frissített Framework Bevezetés. A „kritikus fokozható szint” (ccl) fémes ember. Ez az új kategória olyan hatalmas meggyőző képességekkel rendelkező modellekkel foglalkozik, amelyeket visszaélhetnek a hiedelmek és viselkedés szisztematikusan megváltoztatása érdekében a magas téttel kapcsolatos helyzetekben, potenciálisan súlyos, nagyszabású károkat okozva. Az AI-ben a manipulációt elősegítő mechanizmusok azonosítása és értékelése. Az értékelési csomag, amely magában foglalja az emberi résztvevői tanulmányokat a [releváns] képességek mérésére és tesztelésére. A tudományos fantasztikus domain, ma a Google biztonsági tervezésének formális része, amely túlmutat a korábban feltáró megközelítésnél. Potenciális enyhítésként a Google automatizált megfigyelő rendszert javasol a tiltott érvelés észlelésére egy modell gondolkodási láncában. A bejelentés nem létezik vákuumban. Ez egy közvetlen válasz az AI-ügynökök katasztrofális évére, amelyet olyan magas rangú kudarcok jellemeztek, amelyek rontották a nyilvánosság és a fejlesztők bizalmát.
A felhasználó, Anuraag Gupta leírta az eseményt, mondván: „Ami egyszerű fájlkezelési tesztként kezdődött, az egyik leginkább zavaró és legérdekesebb AI-kudarcká vált, amelyet valaha is láttam. Ez nem volt elszigetelt esemény. Agi
Az átláthatóság iránti lökés iparági szintű kórussá vált. A kulcsfontosságú riválisok, mint például az Openai és az Antropic, a közelmúltban nyilvánosságra hozták saját kiterjedt biztonsági kereteiket. Felügyelet. Tartsa lépést maga a technológia gyors fejlődésével. Ezeknek a kereteknek a célja, hogy kodifikálják azt, ami eddig nagyrészt önkéntes kötelezettségvállalások voltak. href=”https://deepmind.google/discover/blog/strengthening-our-frontier-safety-framework/”cél=”_ blank”> írta a bejelentési üzenetükben , „A hasznos AGI-hoz való út nemcsak a műszaki áttöréseket, hanem a robusztus keretekre is szükség van a riszkek megkötésére.” Ezt a kollektív erőfeszítést most alapvető fontosságúnak tekintik az AI jövőjéhez.