Openai a luat măsuri decisive împotriva amenințărilor cibernetice sponsorizate de stat, interzicând mai multe conturi legate de actori din China și Coreea de Nord. Într-un raport de amenințare lansat pe 8 octombrie, compania a dezvăluit că aceste grupuri și-au folosit modelele AI pentru a proiecta propuneri de instrumente de supraveghere, pentru a dezvolta campanii de phishing și pentru a ajuta la crearea de malware.

mutarea subliniază un front în creștere în AI Rece, unde Openai lucrează activ pentru a împiedica tehnologia sa să-și îmbunătățească regimurile de autor. Proiectarea sa au blocat cu succes cererile directe de cod rău intenționat și că Nu au fost furnizate nicio nouă funcție .

src=”https://winbuzzer.com/wp-content/uploads/2024/12/openai-AI-Safety.jpg”>

actori-declarați de stat exploatează AI pentru supraveghere și phishing

Report detalii Guvernele autoritare. Actorii legați de chineză au fost prinși folosind ChatGPT pentru a proiecta sisteme de monitorizare a rețelelor de socializare pe scară largă. O propunere alarmantă a avut ca scop crearea unui „model de avertizare a fluxului legat de uyghur cu risc ridicat” pentru a urmări călătoria persoanelor vizate.

Alte conturi legate de China au folosit AI pentru colectarea de informații open-source, încercând să identifice criticii guvernului și să găsească surse de finanțare. Această activitate reprezintă un efort clar de a utiliza tehnologie avansată pentru supravegherea statului și suprimarea disidenței, conform constatărilor companiei.

Între timp, operatorii nord-coreeni s-au concentrat pe tactici mai tradiționale cibernetice. Aceștia au susținut chatgpt pentru a cerceta tehnicile de phishing, furtul de acreditare și dezvoltarea malware, cu un accent specific pe macOS-ul Apple. Întrebările lor au implicat depanarea codului rău intenționat și explorarea strategiilor de inginerie socială.

o „zonă cenușie” a utilizării greșite: eficiența față de noutate

investigația lui Openai dezvăluie o perspectivă crucială asupra stării actuale ale cybercrime-ului asistat de AI: actorii de stat nu dezvoltă noi superweapons. În schimb,

Cu toate acestea, după cum remarcă raportul, aceste activități „au o semnificație diferită atunci când sunt repurpuse de un actor amenințând”. Obiectivul nu a fost invenția, ci accelerarea operațiunilor cibernetice existente.

În mod similar, grupul de phishing legat de China a folosit AI pentru a solicita o eficiență incrementală. Avantajul principal pe care l-au obținut a fost de la „fluența lingvistică, localizarea și persistența”. Acest lucru s-a tradus în generarea de e-mailuri cu mai puține erori de limbaj, creând „cod de lipici mai rapid” și făcând ajustări mai rapide atunci când atacurile lor inițiale au eșuat.

Scopul final a fost viteza și scara. Pentru acești actori, succesul a însemnat producerea de e-mailuri de phishing gata de sesizare și obținerea „ciclurilor de iterație scurtate pentru cod de rutină și automatizare”. Acest accent pe creșterea tranzacției tradiționale, mai degrabă decât pe crearea de noi forme de atac, este o constatare esențială a anchetei Openai.

Pe parcursul acestor operațiuni, Openai a subliniat că garanțiile sale au menținut constant ferm împotriva amenințărilor directe. Raportul afirmă că modelele sale „a refuzat în mod constant cererile rău intenționate”. În cazul unui dezvoltator de malware de limbă rusă, sistemul a refuzat în mod specific cererile directe pentru exploatări și keyloggers.

Cu toate acestea, actorii amenințători se adaptează. Raportul evidențiază cazuri de „adaptare și obuscare”, în cazul în care utilizatorii rău intenționați își schimbă comportamentul pentru a evita detectarea. Unele rețele înșelătorie, conștiente de discuțiile online despre modelele de text generate de AI, au instruit în mod specific modelul să elimine EM-DASH-uri pentru a face ca ieșirea să pară mai umană.

Această dinamică ilustrează provocarea de bază pentru platformele AI. Potrivit lui Openai. Apărarea eficientă necesită o „abordare nuanțată și informată, care se concentrează pe tiparele de comportament al actorului amenințării, mai degrabă decât pe interacțiunile model izolate”. Distingerea unei interogări de codificare benignă de la una menită să perfecționeze malware-ul este noua linie frontală în securitatea platformei.