Το OpenAI έχει λάβει αποφασιστικές ενέργειες κατά των απειλών από τον κυβερνοχώρο που χρηματοδοτούνται από το κράτος, απαγορεύοντας πολλούς λογαριασμούς που συνδέονται με τους ηθοποιούς στην Κίνα και τη Βόρεια Κορέα. Σε μια έκθεση απειλής που κυκλοφόρησε στις 8 Οκτωβρίου, η εταιρεία αποκάλυψε ότι αυτές οι ομάδες χρησιμοποίησαν τα μοντέλα AI για να σχεδιάσουν προτάσεις για εργαλεία παρακολούθησης, να αναπτύξουν εκστρατείες phishing και να βοηθούν τη δημιουργία του AI. Οι διασφαλίσεις του εμπόδισαν επιτυχώς τις άμεσες αιτήσεις για κακόβουλο κώδικα και ότι Δεν παρέχονται νέες δυνατότητες . src=”https://winbuzzer.com/wp-content/uploads/2024/12/openai-ai-safety.jpg”>

href=”https://cdn.openai.com/threat-intelligence-reports/7d662b68-952f-4dfd-a2f2-fe55b041cc4a/disrupting-malicious-uses-of-ai-october-2025.pdf”target=”_ _ _ _ _ συνδέονται με τις αυταρχικές κυβερνήσεις. Οι κινέζοι συνδεδεμένοι ηθοποιοί πιάστηκαν χρησιμοποιώντας το ChatGPT για να σχεδιάσουν συστήματα παρακολούθησης κοινωνικών μέσων μεγάλης κλίμακας. Μια ανησυχητική πρόταση με στόχο τη δημιουργία ενός”υψηλού κινδύνου προειδοποιητικού μοντέλου εισροής Uyghur”για την παρακολούθηση του ταξιδιού των στοχευμένων ατόμων. Αυτή η δραστηριότητα αντιπροσωπεύει μια σαφή προσπάθεια για τη χρήση προηγμένης τεχνολογίας για την επιτήρηση της κρατικής επιτήρησης και την καταστολή της διαφωνίας, σύμφωνα με τα ευρήματα της εταιρείας. Αξιοποιούσαν το ChatGpt για να ερευνήσουν τις τεχνικές ηλεκτρονικού ψαρέματος, την κλοπή διαπιστευτηρίων και την ανάπτυξη κακόβουλου λογισμικού, με ιδιαίτερη έμφαση στα macOs της Apple. Τα ερωτήματά τους περιελάμβαναν τον εντοπισμό του κακόβουλου κώδικα και τη διερεύνηση στρατηγικών κοινωνικής μηχανικής. Αντ’αυτού, το

Ο τελικός στόχος ήταν η ταχύτητα και η κλίμακα. Για αυτούς τους ηθοποιούς, η επιτυχία σήμαινε την παραγωγή μηνυμάτων ηλεκτρονικού ταχυδρομείου ψαρέματος έτοιμων για να τοποθετήσει και την επίτευξη”συντομεύσεων κύκλων επανάληψης για τον κώδικα και τον αυτοματισμό ρουτίνας”. Αυτή η εστίαση στην αύξηση του παραδοσιακού εμπορικού σκάφους, αντί της δημιουργίας νέων μορφών επίθεσης, αποτελεί βασικό εύρημα της έρευνας OpenAi. Η έκθεση αναφέρει ότι τα μοντέλα της”αρνήθηκαν σταθερά εντελώς κακόβουλα αιτήματα”. Στην περίπτωση ενός ρώσου προγραμματιστή κακόβουλου λογισμικού, το σύστημα αρνήθηκε συγκεκριμένα τα άμεσα αιτήματα για εκμεταλλεύσεις και keyloggers. Ωστόσο, οι ηθοποιοί απειλών προσαρμόζονται. Η αναφορά υπογραμμίζει τις περιπτώσεις”προσαρμογής και συγκέντρωσης”, όπου οι κακόβουλοι χρήστες αλλάζουν τη συμπεριφορά τους για να αποφύγουν την ανίχνευση. Ορισμένα δίκτυα απάτης, συνειδητοποιώντας τις διαδικτυακές συζητήσεις σχετικά με τα πρότυπα κειμένου που δημιουργήθηκαν από την AI, ειδικά έδωσαν οδηγίες στο μοντέλο να αφαιρέσουν τα EM-Dashes για να κάνουν την έξοδο να εμφανίζεται πιο ανθρώπινη. Σύμφωνα με τον OpenAi. Η αποτελεσματική άμυνα απαιτεί μια”λεπτή και ενημερωμένη προσέγγιση που επικεντρώνεται σε πρότυπα συμπεριφοράς απειλών και όχι σε απομονωμένες αλληλεπιδράσεις μοντέλων”. Η διάκριση ενός καλοήθους ερωτήματος κωδικοποίησης από το ένα που προορίζεται να βελτιώσει το κακόβουλο λογισμικό είναι η νέα πρώτη γραμμή στην ασφάλεια της πλατφόρμας.