Openai har tatt avgjørende tiltak mot statssponsede cybertrusler, og forbyr flere kontoer knyttet til aktører i Kina og Nord-Korea. I en trusselrapport utgitt 8. oktober, avslørte selskapet at disse gruppene brukte sine AI-modeller for å utarbeide forslag til overvåkningsverktøy, utvikle phishing-kampanjer og hjelpe til med å skape skadelig programvare.
Flyttingen understreker en voksende front i den kalde krigen, hvor Openai fungerer aktivt mens de er for å være i en gang til å være i den kulde krigen. Operasjoner, Openai, opprettholder sine sikkerhetsregler med hell blokkerte direkte forespørsler om ondsinnet kode og at Ingen romaner var gitt .
src=”https://winbuzzer.com/wp-content/uploads/2024/12/opena-ai-safety.jpg”>
State-backed-skuespillere utnytter AI for overvåking og phishing
The the Andre kontoer knyttet til Kina brukte AI for åpen kildekode etterretningsinnsamling, og forsøkte å identifisere kritikere av regjeringen og finne finansieringskilder. Denne aktiviteten representerer en klar innsats for å bruke avansert teknologi for statlig overvåking og undertrykkelse av dissens, ifølge selskapets funn. I mellomtiden fokuserte nordkoreanske operatører på mer tradisjonelle nettkriminalitetstaktikker. De utnyttet chatgpt for å undersøke phishing-teknikker, legitimasjonstyveri og utvikling av skadelig programvare, med et spesifikt fokus på Apples macOS. Deres spørsmål involverte feilsøking av ondsinnet kode og utforske sosiale ingeniørstrategier. Openais undersøkelse avslører en avgjørende innsikt i den nåværende tilstanden til AI-assistert nettkriminalitet: tilstand aktører ikke utvikler romaner. Instead, the report emphasizes that threat actors er”å bygge AI i sine eksisterende arbeidsflyter, i stedet for å bygge nye arbeidsflyter rundt AI.” Selskapet fant ingen bevis for at modellene ga angripere nye taktikker eller offensive evner de ikke kunne få andre steder. Denne tilnærmingen fungerer ofte i det Openai kaller en”grå sone”for aktivitet med dobbeltbruk. En betydelig del av den ondsinnede bruken involverte spørsmål om tilsynelatende uskyldige oppgaver som å oversette tekst, endre kode eller opprette et nettsted. Disse forespørslene blir bare truende basert på konteksten og intensjonen til brukeren, og utgjør en kompleks deteksjonsutfordring. Korean-Language som for eksempel for eksempel mange forespørsler. Korean-Language som driver med å gjøre en kompleks. Imidlertid, som rapporten bemerker,”får disse aktivitetene en annen betydning når de blir omgjort av en trusselaktør.”Målet var ikke oppfinnelse, men akselerasjon av eksisterende cyberoperasjoner. Tilsvarende brukte den Kina-tilknyttede phishing-gruppen AI for å søke inkrementell effektivitet. Den primære fordelen de fikk var fra”språklig flyt, lokalisering og utholdenhet.”Dette oversatte til å generere e-postmeldinger med færre språkfeil, lage”raskere limkode”, og gjøre raskere justeringer når de første angrepene mislyktes. Det endelige målet var hastighet og skala. For disse skuespillerne betydde suksess å produsere å sende e-postmeldinger med klare til å sende og oppnå”forkortede iterasjonssykluser for rutinemessig kode og automatisering.”Dette fokuset på å utvide tradisjonell tradeft, i stedet for å skape nye angrepsformer, er et sentralt funn av Openai-etterforskningen. Gjennom disse operasjonene understreket Openai at sikkerhetstiltakene konsekvent holdt fast mot direkte trusler. Rapporten sier at modellene”konsekvent nektet direkte ondsinnede forespørsler.”Når det gjelder en russisk talende utvikler av malware, nektet systemet spesielt direkte forespørsler om utnyttelser og keyloggere. Imidlertid tilpasser trusselaktører seg. Rapporten belyser forekomster av”tilpasning og obfusering”, der ondsinnede brukere endrer atferd for å unngå deteksjon. Noen svindelettverk, klar over online diskusjoner om AI-genererte tekstmønstre, instruerte spesielt modellen om å fjerne EM-dashes for å få utdataene til å virke mer menneskelig. Denne dynamikken illustrerer kjerneutfordringen for AI-plattformer. I følge Openai. Effektivt forsvar krever en”nyansert og informert tilnærming som fokuserer på mønstre av trusselaktøratferd snarere enn isolerte modellinteraksjoner.”Å skille en godartet kodingsspørsmål fra en ment å avgrense skadelig programvare er den nye frontlinjen i plattformsikkerhet. en ‘grå sone’ av misbruk: effektivitet over nyhet