Található leválasztás létezik a mesterséges intelligencia munkahelyi gyors elfogadása és az alkalmazottak tényleges használatának módja között, a kpmg”> kpmg”> kpmg”_ üres”Melbourne . A tavaly év végén 47 országban és 2025 elején felmérés során a kutatás a munkavállalók megdöbbentő 57%-át rejtette el, hogy elrejti az AI-eszközök használatát, gyakran az AI által generált anyagot, mint saját eredeti munkájukat. A „Bizalom, a hozzáállás és a mesterséges intelligencia használata: A 2025-ös globális tanulmány” jelentés részletezi, hogy ez a rejtett felhasználás gyakran kockázatos gyakorlatokat foglal magában. Az AI-t használó alkalmazottak kétharmada (66%) elismeri, hogy a kimenetére támaszkodnak anélkül, hogy a pontosságot ellenőriznék. Majdnem fele (48%) bevallotta, hogy potenciálisan érzékeny vállalati információkat vagy szerzői joggal védett anyagokat etet a nyilvános AI-eszközökbe-ez a gyakorlat gyakran közvetlenül a vállalati politika ellen. Ez a jelenség, amelyet néha „Shadow AI”-nek neveznek, az iparági figyelők, mint a Gartner kockázat. Sam Gloede, a KPMG International globális megbízható AI-átalakulási vezetője kijelentette: „Ez valóban az, mert a szervezet ki van téve a jelentős kockázatnak.”A bizalmi hiányosságok az üzemanyag-kockázatos viselkedés
Ezeknek a kockázatos viselkedéseknek a prevalenciája közvetlenül kapcsolódik a nem megfelelő szervezeti felkészültséghez. A tanulmány jelentős különbségeket talált az AI írástudásában és irányításában: a munkavállalóknak csak 47%-a számolt be arról, hogy az AI-hez kapcsolódó képzéseket kap. Gillespie, a Melbourne-i Egyetem vezető szerzője kiemelte a következményeket: „Ez a rejtett felhasználás jelentős kockázatot jelent a szervezetek számára, ideértve az adatbiztonsági megsértéseket, a hibákat, a szerzői jogok megsértését, és csökkenti a tanulás és az innováció potenciálját.”A munkavállalók nyomást gyakorolnak arra, hogy az AI-t a versenyképes maradjanak-tette hozzá Gillespie, és olyan „csábító elemet” talál, amely ösztönzi a felhasználást, néha a szabályoktól függetlenül. Összehasonlítva a megállapításokat egy 2022-es végén 17 országban (a KPMG jelentés függelékeiben részletezve), a kutatók úgy találták, hogy az AI rendszerek általánosságban észlelt megbízhatóságot és a rájuk támaszkodni hajlandóak általában csökkentek, míg a munkavállalók aggódnak az AI iránt. Kényelem, megerősítve a jobb felügyelet sürgősségét. A feltörekvő nemzetek munkavállalói általában magasabb AI-örökbefogadási arányokat, nagyobb bizalmat, jobb AI-írástudást jelentenek, és a fejlett gazdaságok társaikhoz képest erősebb szervezeti támogatást érzékelnek a felelősségteljes AI-felhasználáshoz. A felhasználás, az írástudás azt sugallja, hogy önmagában nem akadályozza meg a kockázatos viselkedést erős kormányzás nélkül. Az antropikus biztonsági vezető, Jason Clinton a közelmúltban előre jelezte az autonóm „virtuális alkalmazottak” érkezését egy éven belül, és összetett kérdéseket vet fel a biztonság, az elszámoltathatóság és a nem humán identitások (NHIM) kezelése körül-ezt a kategóriát már becsülték meg a Sok cégnél. Például a Microsoft részletesen részletezi a 2025 április végén. Ezek a célok, hogy az osztályok jobb láthatóságot és kezelési képességeket biztosítsanak, ideértve a kockázatértékelést a Forview Integration segítségével, a Copilot Analytics segítségével (az ügynök-specifikus jelentések 2025 júniusáig), és továbbfejlesztette a konkrét AI-eszközök kiürítéséhez szükséges eszközöket. Kormányzási keretek. Az AI növekvő kifinomultsága, mint például a Chatgpt azon képessége, hogy beszélgetési memóriát használjon az internetes keresések személyre szabására, tovább hangsúlyozza a gondos adatkezelés szükségességét. keretek a felelősségvállalás irányításához.