Firma AI Anthropic ujawniła dziś, że jej zaawansowane modele AI są aktywnie uzbrojeni przez cyberprzestępcy w celu wyrafinowanych ataków. W nowym raporcie o wywiadu zagrożenia firma szczegółowo opisuje niepokojący trend, który nazywa „hackingiem klimatycznym”, w którym jeden złośliwy aktor używa agenta AI, takiego jak Claude jako konsultant techniczny, jak i aktywny operator.
Badania podkreślają, w jaki sposób AI znacznie obniża barierę dla cyberprzestępczości. Umożliwia podmiotom zagrożeniom o ograniczonych umiejętnościach budowanie oprogramowania ransomware, analizę skradzionych danych, a nawet pomaga agentom Korei Północnej w nieuczciwie zabezpieczenia wysoko płatnych zadań technologicznych w finansowaniu programów sponsorowanych przez państwo. Oznacza to znaczącą ewolucję w stosowaniu AI do złośliwych celów.
Raport Anthropica, wydane dzisiaj , potwierdza paradigm w Cybercrime. „Agentical AI Systems są uzbrojeni”. To przesuwa zagrożenie poza prostą pomoc w aktywnym wykonywaniu ataków przez agentów AI.
„Vibe-hacking” Wprowadza termin „hacking atmosfery” jako metodologię, która reprezentuje ewolucję w cyberprzestępczości wspomaganej przez AI. Takie podejście uważa, że AI służy zarówno jako konsultant techniczny, jak i aktywny operator, umożliwiając ataki, które byłyby znacznie trudniejsze dla osoby wykonania ręcznego. Oznacza to fundamentalne przesunięcie z AI jako proste narzędzie do AI jako partnera w operacji.
Dane antropiczne
AI nie tylko przestrzegała scenariusza. Podczas gdy aktor dostarczył plik przewodnika z preferowanymi taktykami, agent był nadal wykorzystany do podejmowania zarówno decyzji taktycznych, jak i strategicznych. Określił, jak najlepiej przenikać sieci, jakie dane do wydłużenia i jak wywoływać psychologicznie ukierunkowane wymagania wymuszenia.
Operacja wykazała bezprecedensową integrację AI w całym cyklu życia ataku. W fazie rozpoznawczej agent zautomował skanowanie tysięcy punktów końcowych VPN w celu zidentyfikowania wrażliwych systemów. Podczas wtargnięcia zapewniał pomoc w czasie rzeczywistym, identyfikując krytyczne systemy, takie jak kontrolery domeny i wyodrębnianie poświadczeń.
Kod Claude był również używany do niestandardowego rozwoju złośliwego oprogramowania. Stworzył zaciemnione wersje istniejących narzędzi do tunelowania, aby uniknąć obrońcy Windows, a nawet opracował od zera zupełnie nowy kod proxy TCP. Gdy początkowe próby unikania nie powiodły się, sztuczna inteligencja zasugerowała nowe techniki, takie jak szyfrowanie ciągów i nazwa pliku, które maskowały się, aby ukryć jej złośliwe elementy wykonywalne.
Po wykresie wrażliwych danych-w tym dokumentacjach finansowych, referencje rządowe i informacje na temat opieki zdrowotnej-Rola AI przesunęła się do mostu. Przeanalizował skradzione dane, aby stworzyć wielopoziomowe strategie wymuszenia, generując szczegółowe „plany zysków”, które obejmowały bezpośredni szantaż organizacyjny, sprzedaż danych innym przestępcom i ukierunkowaną presję na osoby, których dane zostały zagrażone.
Jacob Klein, szef inteligencji zagrożenia, Powiedział Verge ,„ To najbardziej wyrafinowane wykorzystanie agentów, jakie widziałem… za cytatową atmosferę. ” AI obliczało optymalne kwoty okupu w oparciu o jego analizę, a wymagania czasami przekraczają 500 000 USD.
Ta nowa zdolność oznacza, że „… teraz pojedyncza osoba może prowadzić, z pomocą systemów agencyjnych”. Zasadniczo zmienia to krajobraz zagrożenia, co utrudnia ocenę wyrafinowania atakującego w oparciu o złożoność jego operacji.
[zawartość osadzona]
Demokratyzacja cyberprzestępczości: bez kodu ransomware-as-a-Service
Inne trendy alarmowe wyróżnione w The Raport antropowy jest wzrostem „no-code malware,” transformacyjna przez AI, która usuwa tradycyjne bariery techniczne do cybermarni. Raport stwierdza: „AI obniża bariery dla wyrafinowanej cyberprzestępczości”. To nie jest ryzyko teoretyczne; Firma zidentyfikowała brytyjskiego aktora (GTG-5004), który doskonale uosabia ten nowy paradygmat.
Ta osoba, aktywna na ciemnych forach internetowych, takich jak Dread i CryptBB od co najmniej stycznia 2025 r., Wykazał „pozornie kompletną zależność od AI w celu opracowania funkcjonalnego złośliwego oprogramowania”. Wydawało się, że aktor nie był w stanie wdrożyć złożonego szyfrowania lub rozwiązywania problemów technicznych bez pomocy Claude’a, ale z powodzeniem marketingowym i sprzedawał zdolne oprogramowanie ransomware.
Operacja została ustrukturyzowana jako profesjonalna firma zajmująca się oprogramowaniem ransomware-as-a-Service (RAAS) z wielopoziomowym modelem komercyjnym. Podstawowe biblioteki DLL i wykonywalne ransomware zostały oferowane za 400 USD, pełny zestaw RAAS z bezpieczną konsolą PHP i narzędziami dowodzenia i kontroli za 800 USD, a także w pełni niewykrywalne (FUD) narzędzia do binarnych okien za 1200 USD.
To skutecznie demokratyzuje zaawansowane cyberprzestępczość, co w celu uzyskania rąk z mniejszych osób. Aktor utrzymywał bezpieczeństwo operacyjne poprzez dystrybucję za pośrednictwem witryny.onion i korzystając z zaszyfrowanej wiadomości e-mail, zwodniczą twierdząc, że produkty były „wyłącznie w celu wykorzystania edukacji i badań”, podczas gdy reklamuje się na forach przestępczych.
Pomimo pozornego braku głębokiej wiedzy operatora, złośliwe oprogramowanie AII było bardzo wyrafinowane. Jego podstawowe funkcje obejmowały szyfr strumienia ChACHA20 do szyfrowania plików, użycie interfejsu API Windows CNG do zarządzania kluczem RSA oraz mechanizmów anty-referencyjnych, takich jak usunięcie kopii cieni objętościowych, aby zapobiec łatwemu przywróceniu.
W celu uniknięcia, złośliwe oprogramowanie zastosowało zaawansowane techniki, takie jak recyklingowe i świeżowe. Metody te wykorzystują bezpośrednie wywołanie SYSCALL, aby ominąć haczyki interfejsu API w trybie użytkownika powszechnie używane przez EDR Solutions. Stanowi to znaczącą transformację operacyjną, w której kompetencje techniczne są zlecane na rzecz sztucznej inteligencji, a nie nabywane poprzez doświadczenie.
Ten incydent jest tylko jednym przykładem szerszego trendu branżowego broni AI. Jak szczegółowo opisano poprzednie raporty Winbuzzer, ta zmiana jest widoczna w całym krajobrazie zagrożeń, od napastników, którzy używali V0 Vercel do „natychmiastowych phishing” po ewolucję narzędzi takich jak Wormgpt, które teraz porywają uzasadnione modele, takie jak Grok i Mixtral.
Nowy front w stanowych i akceptacyjnych atakach AI-ACLEERED>
UNZ. Systematyczna i wyrafinowana kampania pracowników IT z Korei Północnej, którzy wykorzystują Claude’a do nieuczciwego uzyskiwania i utrzymywania wysoko płatnych miejsc pracy technologicznej w firmach Fortune 500. Zgodnie z antropijnym dochodzeniem, operacje te mają na celu uniknięcie sankcji międzynarodowych i generowanie setek milionów dolarów rocznie w celu sfinansowania krajowych programów broni.
Najbardziej uderzającym odkryciem jest „pełna zależność od AI w celu funkcjonowania technicznych”. Te osoby wydają się nie być w stanie napisać podstawowego kodu, problemów debugowania, a nawet zawodowo komunikować się bez stałej pomocy AI. Stwarza to nowy paradygmat, w którym kompetencje techniczne nie są posiadane, ale całkowicie symulowane.
Niestety operacja zatrudnienia następuje po wielu fazowych cyklu życia, z pomocą AI na każdym etapie. W początkowej fazie „Rozwoju Persona” operatorzy używają Claude’a do generowania przekonujących środowisk zawodowych, tworzenia portfeli technicznych z historiami projektu i badań odniesień kulturowych, aby wydawać się autentyczne.
Podczas procesu „aplikacji i wywiadu” AI służy do dostosowania wznowienia się do określonych opisów zadań, rzemiosła najważniejszego zasłony i zapewnienia pomocy w czasie realizacji. To pozwala im pomyślnie zdać wywiady w sprawie ról, dla których są niekwalifikowane.
Po zatrudnieniu zależność nasila się. W fazie „konserwacji zatrudnienia” agenci polegają na sztucznej inteligencji w celu zapewnienia faktycznej pracy technicznej, uczestnictwa w komunikacji zespołowej i reagowania na recenzje kodu, zachowując złudzenie kompetencji. Dane antropiku pokazują, że około 80% użycia Claude agentów jest zgodne z aktywnym zatrudnieniem.
Podejście to obsługa AI-ai-obsługiwane przez AI-aidację obchodzi tradycyjne wąskie wąskie gardło potrzebnego specjalistycznego szkolenia w elitarnych instytucjach, takich jak Kim Il Sung University. Historycznie ograniczyło to liczbę agentów, których reżim może rozmieścić. Teraz AI skutecznie usunęło to ograniczenie, umożliwiając osobom o ograniczonych umiejętnościach zabezpieczenie i utrzymanie lukratywnych pozycji inżynierskich.
Raport zauważa, że „pojedynczy operator może osiągnąć wpływ całego zespołu cyberprzestępczykowego poprzez pomoc AI”. Ta broń AI nie dzieje się w próżni. Microsoft ostrzegał już, że „AI zaczęło obniżyć techniczny pasek podmiotów oszustwa i cyberprzestępczości… ułatwiając i tańsze generowanie wiarygodnych treści dla cyberataków w coraz szybszym tempie.”
Ta szersza trend jest widoczny w niedawnym przypływu AI-Atsise Attay phishing i złośliwych kampanii. W odpowiedzi na swoje ustalenia Anthropic zakazał złośliwych relacji i poprawił swoje narzędzia do skorelowania znanych wskaźników kompromisu. Firma dzieli się również wskaźnikami technicznymi z partnerami branżowymi, aby zapobiec nadużyciom w ekosystemie.