Openai ka ndërmarrë veprime vendimtare kundër kërcënimeve në internet të sponsorizuara nga shteti, duke ndaluar llogari të shumta të lidhura me aktorët në Kinë dhe Korenë e Veriut. Në një raport kërcënimi të lëshuar më 8 tetor, kompania zbuloi se këto grupe përdorën modelet e saj të AI për të hartuar propozime për mjete mbikëqyrje, zhvillojnë fushata phishing dhe ndihmojnë në krijimin e malware. Mbrojtjet e tij bllokuan me sukses kërkesat e drejtpërdrejta për kodin me qëllim të keq dhe se . src=”https://winbuzzer.com/wp-content/uploads/2024/12/openai-ai-safety.jpg”>
aktorë të mbështetur nga shteti shfrytëzojnë AI për mbikëqyrje dhe phishing
href=”https://cdn.openai.com/threat-intelligence-reports/7d662b68-952f-4dfd-a2f2-fe55b041cc4a/disupting-maalicious-uses-ai-october-2025.pdf”synim=”_ Raport”> Raport”. Qeveritë autoritare. Aktorët e lidhur me kinezët u kapën duke përdorur Chatgpt për të hartuar sisteme të monitorimit të mediave sociale në shkallë të gjerë. Një propozim alarmant që synonte të krijonte një”model paralajmërimi të hyrjes në lidhje me Uyghur me rrezik të lartë”për të ndjekur udhëtimin e individëve të synuar. Ky aktivitet paraqet një përpjekje të qartë për të përdorur teknologji të përparuar për mbikëqyrjen shtetërore dhe shtypjen e mosmarrëveshjeve, sipas gjetjeve të kompanisë. Ata nxitën Chatgpt për të hulumtuar teknikat e phishing, vjedhjen e kredencialeve dhe zhvillimin e malware, me një fokus specifik në macOS të Apple. Pyetjet e tyre përfshinin debugimin e kodit me qëllim të keq dhe eksplorimin e strategjive të inxhinierisë sociale. Në vend të kësaj,
Qëllimi përfundimtar ishte shpejtësia dhe shkalla. Për këta aktorë, suksesi nënkuptonte prodhimin e postave elektronike të gatshme për të dërguar postë elektronike dhe arritjen e”cikleve të shkurtuara të përsëritjes për kodin rutinë dhe automatizimin”. Ky përqendrim në shtimin e tregtisë tradicionale, në vend se të krijojë forma të reja sulmi, është një konstatim kryesor i hetimit të Openai. Raporti thotë se modelet e tij”vazhdimisht refuzuan kërkesa të paqarta”. Në rastin e një zhvilluesi të malware që flet rusë, sistemi posaçërisht mohoi kërkesat e drejtpërdrejta për shfrytëzime dhe keyloggers. Megjithatë, aktorët e kërcënimit po përshtaten. Raporti nxjerr në pah rastet e”përshtatjes dhe mashtrimit”, ku përdoruesit e keq ndryshojnë sjelljen e tyre për të shmangur zbulimin. Disa rrjete mashtrimi, të vetëdijshëm për diskutimet në internet në lidhje me modelet e tekstit të krijuara nga AI, udhëzuan posaçërisht modelin që të largojë EM-Dashes për të bërë që prodhimi të duket më njerëzor. Kjo dinamikë ilustron sfidën thelbësore për platformat e AI. Sipas Openai. Mbrojtja efektive kërkon një qasje”të nuancuar dhe të informuar që përqendrohet në modelet e sjelljes së aktorit të kërcënimit sesa ndërveprimet e modelit të izoluar”. Dallimi i një pyetjeje beninje të kodimit nga një që synon të rafinojë malware është linja e re e parë në sigurinë e platformës.