Die AI-Firma Anthropic hat heute bekannt gegeben, dass seine fortgeschrittenen KI-Modelle von Cyberkriminellen für hoch entwickelte, End-to-End-Angriffe aktiv waffen werden. In einem neuen Bedrohungsinformationsbericht beschreibt das Unternehmen einen beunruhigenden Trend als „Vibe-Hacking“, bei dem ein einziger bösartiger Schauspieler einen AI-Agenten wie Claude als technischen Berater und aktiven Betreiber verwendet. Es ermöglicht Bedrohungsakteure mit begrenzten Fähigkeiten, um Ransomware aufzubauen, gestohlene Daten zu analysieren und nordkoreanische Mitarbeiter sogar bei der Finanzierung von staatlich gesponserten Programmen zu helfen. Dies markiert eine bedeutende Entwicklung bei der Verwendung von KI für böswillige Zwecke.”Agenten-KI-Systeme werden bewaffnet.”Dies bewegt die Bedrohung über die einfache Unterstützung bei der aktiven Ausführung von Angriffen durch AI-Agenten hinaus. führt den Begriff „Vibe-Hacking“ als Methodik ein, die eine betreffende Evolution in der AI-unterstützten Cyberkriminierung darstellt. In diesem Ansatz dient die KI sowohl als technischer Berater als auch als aktiver Betreiber und ermöglicht Angriffe, die für eine Person weitaus schwieriger wären, manuell auszuführen. Es markiert eine grundlegende Verschiebung von AI als einfaches Werkzeug zu AI als Partner in der Operation. Cyberkriminalerbetrieb (verfolgt als GTG-2002), bei dem ein einzelner Schauspieler seinen Claude-Code-Agenten verwendete, um eine skalierte Datenerpressungskampagne durchzuführen. Innerhalb von nur einem Monat gefährdete die Operation mindestens 17 verschiedene Organisationen in Bereichen wie Gesundheitswesen, Rettungsdiensten und Regierung.

Die KI folgte nicht nur einem Skript. Während der Akteur eine Leitfadendatei mit bevorzugten Taktiken zur Verfügung stellte, wurde der Agent noch genutzt, um sowohl taktische als auch strategische Entscheidungen zu treffen. Es wurde festgestellt, wie man in Netzwerken am besten eindringt, welche Daten zum Exfiltrieren und wie man psychisch gezielte Erpressungsanforderungen erstellt. In der Aufklärungsphase automatisierte das Agent das Scannen von Tausenden von VPN-Endpunkten, um gefährdete Systeme zu identifizieren. Während des Eindringens lieferte es Echtzeitunterstützung, identifizierte kritische Systeme wie Domänencontroller und das Extrahieren von Anmeldeinformationen. Es erstellte verschleierte Versionen vorhandener Tunnel-Tools, um Windows-Verteidiger auszuweichen, und entwickelte sogar völlig neue TCP-Proxy-Code von Grund auf neu. Als anfängliche Umgehungversuche fehlschlugen, schlug die KI vor, neue Techniken wie String-Verschlüsselung und Dateiname zu tarnen, um seine böswilligen Ausführungsfähigkeiten zu verschleiern. Es analysierte die gestohlenen Daten, um mehrstufige Erpressungsstrategien zu erstellen und detaillierte „Gewinnpläne“ zu generieren, die direkte organisatorische Erpressung, Datenverkäufe an andere Kriminelle und gezielten Druck auf Personen, deren Daten beeinträchtigt wurde href=”https://www.theverge.com/ai-artificial-intelligence/766435/anthropic-claude-threat-intelligence-report-ai-cybersecurity-hacking”target=”_ bloße”. Die KI berechnete die optimalen Lösegeldbeträge basierend auf ihrer Analyse, wobei Anforderungen manchmal über 500.000 US-Dollar liegen. Dies verändert grundsätzlich die Bedrohungslandschaft und erschwert es schwieriger, die Komplexität eines Angreifers aufgrund der Komplexität ihres Betriebs allein zu beurteilen. href=”https://www-cdn.anthropic.com/b2a76c6f6992465c09a6f2fce282f6c0cea8c200.pdf”Target=”_ Blank”> Anthropic-Bericht Der Anstieg der Traditions-MAGE-MAGROGROGROGROGROINS. In dem Bericht heißt es:”KI senkt die Hindernisse für ausgefeilte Cyberkriminalität.”Dies ist kein theoretisches Risiko; Das Unternehmen identifizierte einen in Großbritannien ansässigen Schauspieler (GTG-5004), der dieses neue Paradigma perfekt verkörpert. Der Akteur schien die komplexe Verschlüsselung oder Fehlerbehebung technischer Probleme ohne Unterstützung von Claude nicht implementieren zu können. Eine grundlegende Ransomware-DLL und eine ausführbare Datei wurden für 400 US-Dollar angeboten, ein volles RAAS-Kit mit einer sicheren PHP-Konsole und Befehls-und Kontrollwerkzeugen für 800 US-Dollar und ein vollständig nicht nachweisbarer (FUD) Crypter für Windows-Binies für Windows-Binies für US-Dollar. Der Akteur hielt die operative Sicherheit bei, indem er über eine Site über ein.onion und die Verwendung verschlüsselter E-Mails verteilt und behauptete, die Produkte seien”nur für Bildungs-und Forschungsnutzung”während der Werbung in kriminellen Foren. Zu den Kernfunktionen gehörten eine Chacha20-Stream-Chiffre für die Dateiverschlüsselung, die Verwendung der Windows-CNG-API für das RSA-Schlüsselmanagement und die Anti-Recovery-Mechanismen wie die Löschung von Volumenschattenkopien, um eine einfache Wiederherstellung zu verhindern. Diese Methoden verwenden einen direkten Sycall-Aufruf, um die von EDR-Lösungen üblicherweise verwendeten User-Mode-API-Hooks zu umgehen. Dies stellt eine bedeutende operative Transformation dar, bei der die technische Kompetenz eher an KI und nicht durch Erfahrung erworben wird. Wie frühere Winbuzzer-Berichte detailliert beschrieben haben, ist diese Verschiebung in der Bedrohungslandschaft sichtbar, von Angreifern, die Vercels V0 für”sofortige Phishing”-Stores verwendeten, bis hin zur Entwicklung von Werkzeugen wie Wormgpt, die jetzt legitimer Modelle wie Grok und Mixtral. Entdeckt eine systematische und anspruchsvolle Kampagne nordkoreanischer IT-Mitarbeiter, die Claude nutzen, um betrügerisch hochbezahlte technische Arbeitsplätze bei Fortune 500-Unternehmen zu erhalten und aufrechtzuerhalten. Laut der anthropischen Untersuchung sollen diese Operationen internationale Sanktionen entziehen und jährlich Hunderte Millionen Dollar generieren, um die Waffenprogramme des Landes zu finanzieren. Diese Personen scheinen nicht in der Lage zu sein, grundlegende Code zu schreiben, Probleme zu debuggen oder sogar professionell ohne ständige AI-Unterstützung zu kommunizieren. Dies schafft ein neues Paradigma, in dem technische Kompetenz nicht besessen, sondern vollständig simuliert ist. In der anfänglichen Phase „Persona Development“ verwenden die Betreiber Claude, um überzeugende professionelle Hintergründe zu generieren, technische Portfolios mit Projektgeschichten zu erstellen und kulturelle Referenzen zu erforschen, um authentisch zu erscheinen.

Während des „Anwendungs-und Interview“-Prozesses wird die KI verwendet, um Lebensläufe auf bestimmte Arbeitsbeschreibungen zu veranlassen, zwanghafte Briefe zu erstellen und reale Hilfsmittel bei technischen Kodierungen zu ermöglichen und bei technischen Kodierungen zu agieren und bei technischen Kodierungen zu agieren. Dies ermöglicht es ihnen, Interviews für Rollen erfolgreich zu verabschieden, für die sie nicht qualifiziert sind. In der Phase „Beschäftigungswartung“ verlassen sich die Mitarbeiter auf KI, um die technischen Arbeiten zu liefern, an Teamkommunikation teilzunehmen und auf Code-Überprüfungen zu reagieren, wodurch die Illusion der Kompetenz aufrechterhalten wird. Die Daten von Anthropic zeigen, dass ungefähr 80% der Claude-Nutzung der Mitarbeiter mit der aktiven Beschäftigung übereinstimmen. Historisch gesehen begrenzte dies die Anzahl der Mitarbeiter, die das Regime einsetzen konnte. Jetzt hat AI diese Einschränkung effektiv beseitigt und es Personen mit begrenzten Fähigkeiten ermöglicht, lukrative technische Positionen zu sichern und zu halten. Diese Waffe von KI findet nicht in einem Vakuum statt. Microsoft hat bereits gewarnt, dass „die KI begonnen hat, die technische Bar für Betrugs-und Cyberkriminalitätsakteure zu senken… es einfacher und billiger zu machen, glaubwürdige Inhalte für Cyberangriffe zu einer immer schnelleren Geschwindigkeit zu generieren. Als Reaktion auf seine Ergebnisse hat Anthropic die böswilligen Konten verboten und seine Werkzeuge für die Korrelation bekannter Kompromisse verbessert. Das Unternehmen teilt auch technische Indikatoren mit Branchenpartnern, um Missbrauch im gesamten Ökosystem zu verhindern.

Categories: IT Info