Openai a luat măsuri decisive împotriva amenințărilor cibernetice sponsorizate de stat, interzicând mai multe conturi legate de actori din China și Coreea de Nord. Într-un raport de amenințare lansat pe 8 octombrie, compania a dezvăluit că aceste grupuri și-au folosit modelele AI pentru a proiecta propuneri de instrumente de supraveghere, pentru a dezvolta campanii de phishing și pentru a ajuta la crearea de malware.
mutarea subliniază un front în creștere în AI Rece, unde Openai lucrează activ pentru a împiedica tehnologia sa să-și îmbunătățească regimurile de autor. Proiectarea sa au blocat cu succes cererile directe de cod rău intenționat și că Nu au fost furnizate nicio nouă funcție .
src=”https://winbuzzer.com/wp-content/uploads/2024/12/openai-AI-Safety.jpg”>
actori-declarați de stat exploatează AI pentru supraveghere și phishing
Report detalii Guvernele autoritare. Actorii legați de chineză au fost prinși folosind ChatGPT pentru a proiecta sisteme de monitorizare a rețelelor de socializare pe scară largă. O propunere alarmantă a avut ca scop crearea unui „model de avertizare a fluxului legat de uyghur cu risc ridicat” pentru a urmări călătoria persoanelor vizate.
Alte conturi legate de China au folosit AI pentru colectarea de informații open-source, încercând să identifice criticii guvernului și să găsească surse de finanțare. Această activitate reprezintă un efort clar de a utiliza tehnologie avansată pentru supravegherea statului și suprimarea disidenței, conform constatărilor companiei.
Între timp, operatorii nord-coreeni s-au concentrat pe tactici mai tradiționale cibernetice. Aceștia au susținut chatgpt pentru a cerceta tehnicile de phishing, furtul de acreditare și dezvoltarea malware, cu un accent specific pe macOS-ul Apple. Întrebările lor au implicat depanarea codului rău intenționat și explorarea strategiilor de inginerie socială.