Wspierane przez rząd grupy hakerskie z Iranu, Chin, Korei Północnej i Rosji coraz częściej zwracają się do generatywnych narzędzi AI, takich jak Google Gemini, aby udoskonalić swoje cyberprzestępstwa, zgodnie z nowym raportem Google’s Ground Intelligence Group (GTIG).

ustalenia wskazują, że to wskazują AI nie umożliwiło jeszcze hakerom tworzenie zasadniczo nowych metod ataku, ale zwiększa istniejącą taktykę poprzez poprawę wydajności, automatyzacji i skalowalności.

Powiązane: Dowody sugerują, że Deepseek R1 jest CCP-Zabrany wyczyn propagandowy obejmujący cybernespirage i prawdopodobnie morderstwo

Google’s Analiza podkreśla, w jaki sposób działania hakerskie wspomagane przez AI, od phishingu i rozwoju złośliwego oprogramowania po rozpoznanie celów wojskowych i wyzysku sieci. „Aktorzy zagrożeń eksperymentują z Gemini, aby umożliwić ich działalność, znajdując korzyści z produktywności, ale jeszcze nie rozwijając nowych możliwości”, stwierdza raport.

Iran: oparte na AI-a-Cyberpionage

Wśród wszystkich wspieranych przez państwo aktorów irańskie grupy hakerskie pojawiły się jako jedni z najbardziej agresywnych użytkowników sztucznej inteligencji, z apt42 Prowadzenie opłaty w operacjach cyberprzestępczych AI.

Google wskazuje, że hakerzy sponsorowani przez państwo irańskie są szczególnie aktywni w wykorzystaniu narzędzi AI do kampanii Phishing Kampanie, rozpoznanie i automatyzacja taktyk inżynierii społecznej./p>

Jednym z najważniejszych sposobów na zwiększenie cyberprzestrzeni Iranu jest phishing. Wykorzystując generatywne modele AI, irańscy aktorzy zagrożeni mogą tworzyć wysoce przekonujące e-maile phishingowe w wielu językach, w tym w języku angielskim, hebrajskim i Farsi.

Powiązane: A-A-A-A-A-A-ADSITED RANSORWE GROUP FUNKESEC Drives Record Recording Cyberatacks w grudniu 2024 r.

Te e-maile mają na celu podszywanie się pod zaufani podmiotów, takich jak urzędnicy ds. Bezpieczeństwa, Dyplomaci i wysoko rankingowi kierownicy, co utrudnia ich wykrycie w porównaniu z tradycyjnymi próbami phishingowymi.

Wyrafinowanie treści phishingowych generowanych przez AI pozwala atakującym dostosowywać wiadomości do określonych osób lub organizacji, zwiększając prawdopodobieństwo udanego naruszenia. Zastosowanie sztucznej inteligencji umożliwia atakującym szybkie generowanie zmian komunikatów phishingowych, pomagając im uniknąć wykrywania przez systemy filtrowania wiadomości e-mail, które opierają się na rozpoznawaniu powtarzających się wzorców.

Poza phishingiem grupy irańskie zastosowały również sztuczną inteligencję do operacji rozpoznawczych, stosując Zebranie wywiadu na zachodnich instytucjach obrony, firmach bezpieczeństwa cybernetycznego i agencjach rządowych. Rozpoznanie z AI-wzmocnionym pozwala irańskim hakerom skanowanie publicznie dostępnych informacji, wydobywanie odpowiednich szczegółów i identyfikowania luk w infrastrukturze cyfrowej celu.

Ten poziom automatyzacji usprawnia proces gromadzenia inteligencji, umożliwiając atakującym wskazanie celów o wysokiej wartości z większą prędkością i dokładnością. Możliwość przetwarzania dużych ilości danych pomaga również w mapowaniu struktur organizacyjnych, relacji personalnych i zasad bezpieczeństwa, dając hakerom głębsze zrozumienie ich celów przed rozpoczęciem ataków.

Kolejny obszar, w którym hakerzy irańscy kapitalizowali AI to kampanie dezinformacyjne. Iran od dawna polegał na operacjach propagandowych i wpływających na dalsze jej cele geopolityczne, a sztuczna inteligencja ułatwiła tworzenie, tłumaczenie i rozpowszechnianie fałszywych lub wprowadzających w błąd narracji.

Powiązane: phishing Kliknij stawki potrójne w 2024 r. Jako cyberprzestępcy wykorzystują AI

Przy użyciu treści generowanych przez AI, irańscy aktorzy mogą tworzyć fałszywe artykuły prasowe, manipulowane posty w mediach społeczności Narracje.

Raport podkreśla, że ​​wysiłki dezinformacyjne napędzane AI były ukierunkowane przede wszystkim przeciwnikom z Bliskiego Wschodu i zachodnich decydentów, dostosowując się do szerszej strategii wpływu politycznego i wojny psychologicznej.

Google podkreśla, że ​​irańscy hakerzy hakerzy. są szczególnie inwestowane w użycie sztucznej inteligencji do tworzenia realistycznych, świadomych kontekstowych wiadomości e-mail, które omijają tradycyjne środki wykrywania. Ta zdolność sprawiła, że ​​kampanie phishingowe wspomagane przez AI były bardziej przekonujące i trudne do zablokowania, zwiększając obawy dotyczące zdolności tradycyjnej obrony bezpieczeństwa cybernetycznego w celu dotrzymania kroku ewolucyjnej taktyce.

„Ponad 30% irańskiego używania aktorów APT było powiązane z APT42″, stwierdza raport, podkreślając, w jakim stopniu AI stała się integralnym narzędziem w rafinacji strategii cyberataku Iranu.

Jednym z najbardziej niepokojących aspektów wykorzystania sztucznej inteligencji jest jego zastosowanie w badaniach podatkowych. Zarządzanie (WinRM) i protokoły dostępu zdalnego.

Modele AI pomagają w analizie dokumentacji technicznej, komponentom oprogramowania do inżynierii odwrotnej i przewidywaniu potencjalnych wektorów ataku, umożliwiając hakerom identyfikację słabości wykorzystywania bardziej niż kiedykolwiek/p>

Powiązane: Microsoft mówi, że cyberataki napędzane przez AI do ponad 600 milionów dziennych incydentów

Możliwość automatyzacji badań w zakresie podatności oznacza, że ​​grupy irańskie mogą odkryć i wykorzystywać bezpieczeństwo Wady przed opracowaniem łatek, zwiększając skuteczność ich ataków.

Te ustalenia są zgodne z wcześniejszymi raportami pokazującymi, że hakerzy wspierani przez Iran często wykorzystają luki zerowe-wady oprogramowania, które są nieznane dostawcom, a zatem, nie mają natychmiastowej naprawy.

Wykorzystanie tych luk w zabezpieczeniach pozwala atakującym uzyskać początkowy dostęp do sieci korporacyjnych i rządowych, umożliwiając dalsze włamanie, wykluczenie danych lub sabotaż.

Zastosowanie AI w badaniach rozpoznawczych, phishingowych i podatnych na zagrożenia sugeruje, że irańskie operacje cybernetyczne stają się coraz bardziej wydajne, ukierunkowane i skalowalne, wzmacniając pilną potrzebę zaawansowanych środków obronnych wobec cyberprzestępstw cybernetycznych asystowanych przez AI-asyste.

Chiny: rozpoznanie i wspomagane AI-asyste exploits

Chińskie grupy hakerskie sponsorowane przez państwo coraz częściej zwracają się do technik rozpoznawczych i wykorzystywania sieci, aby ulepszyć Ich możliwości cyberprzestrzeni.

Według Google Ground Intelligence Group (GTIG), chińskie wykorzystanie sztucznej inteligencji koncentrowało się przede wszystkim na gromadzeniu wywiadu, a nie destrukcyjnym cyberatakom, wzmacniając długoterminowe podejście do infiltracji cybernetycznej.

W przeciwieństwie do zależności Iranu od sztucznej inteligencji w zakresie phishing i inżynierii społecznej, chińscy hakerzy wdrożyli modele AI do mapowania sieci docelowych, analizowania danych wywiadowczych i optymalizacji operacji postkompromisowych.

Kluczowy aspekt Chin Cyberprzestrzeni wspomagana przez AI-AI obejmuje skanowanie i mapowanie sieci rządowych i obronnych USA w celu zidentyfikowania luk, które można wykorzystać w celu uzyskania utrzymującego się dostępu. Narzędzia AI pozwoliły chińskim grupom hakerskim zautomatyzować wysiłki rozpoznawcze, przyspieszając proces analizy struktur sieciowych, identyfikacji słabych punktów i katalogowania odsłoniętych punktów końcowych.

Te wysiłki nie ograniczają się do samej infrastruktury sieciowej; Atakerzy wykorzystali również sztuczną inteligencję do przetwarzania i wydobywania spostrzeżeń z wywiadu typu open source (OSINT), umożliwiając im identyfikację urzędników wywiadu, personelu obronnego i innych celów o wysokiej wartości.

Raport GTIG potwierdza, że ​​chińscy hakerzy hakerzy Wykorzystałem Google Gemini, aby pomóc w badaniu celów wojskowych i rządowych, koncentrując się na gromadzeniu wywiadu organizacyjnego, które mogłyby ułatwić długoterminowe wysiłki szpiegowskie. Hakerzy szukali informacji na temat personelu wojskowego USA, specjalistów ds. Bezpieczeństwa cybernetycznego i osób wywiadowczych, wykazując wyraźny zamiar wzmocnienia chińskich operacji kontrwywiadu.

ai-driven Osint Processing Dostarło tym podmiotom możliwość szybkiego skanowania ogromnych ilości publicznie dostępnych danych, ułatwiając śledzenie ruchów personelu, zrozumienie relacji w agencjach bezpieczeństwa i przewidywanie potencjalnych luk w zabezpieczeniach W operacjach klasyfikowanych.

Poza rozpoznaniem AI odegrała rolę w eksploatacji po komornikach, a chińscy hakerzy opracowują skrypty zaprojektowane w celu eskalacji uprawnień, kradzieży poświadczeń i unikania środków bezpieczeństwa punktu końcowego. Raport Google zauważa, że ​​chińscy aktorzy APT wykorzystali Gemini do przeprowadzenia rozpoznania, do scenariuszy i rozwoju, do rozwiązywania problemów z kodem i zbadania, jak uzyskać głębszy dostęp do sieci docelowych.

Skrypty generowane przez AI pozwalają atakującym na bardziej efektywne dostosowanie się do obrony bezpieczeństwa, szczególnie przy utrzymaniu dostępu do systemów inteligencji o wysokiej wartości. Możliwość korzystania z AI do rozwiązywania problemów z upośledzonymi środowiskami oznacza, że ​​atakujący mogą dostosować swoje strategie w czasie rzeczywistym, unikając wykrywania i udoskonalania swoich technik w oparciu o obserwowane miary bezpieczeństwa.

Jeden z bardziej znaczących incydentów szczegółowo opisanych w raporcie to próba wyodrębnienia wewnętrznych szczegółów na temat własnej infrastruktury AI Google. Okazało się, że hakerzy zapytają o gemini pod kątem informacji na poziomie systemu, w tym szczegółów na temat wersji jądra, adresów IP i konfiguracji sieci.

Środki bezpieczeństwa Google z powodzeniem zablokowały te próby, ale zdarzenie podkreśla zainteresowanie Chin zrozumieniem wewnętrznych działań zachodnich systemów AI. Jest to zgodne z szerszymi obawami, że Chiny mogą dążyć do powtórzenia lub przeciwdziałania postępom zachodniej sztucznej inteligencji poprzez infiltrację komercyjnych środowisk badań i rozwoju AI.

Google sugeruje, że cyberprzestępczość cyber z poprzednimi ocenami wywiadu w USA. Zamiast rozpocząć jawne ataki, które mogą wywołać odwet, Chiny wydają się nakładać podwaliny pod ciągłym dostępie do infrastruktury krytycznej USA, zapewniając, że może wykorzystać cyberprzestrzeni w celu zbierania wywiadu, szpiegostw gospodarczy >

Te ustalenia ilustrują, w jaki sposób AI przyspiesza tempo cyberpony, zapewniając chińskim aktorom zwiększoną automatyzację, zwiększoną elastyczność operacyjną i głębsze możliwości przetwarzania inteligencji.

Podczas gdy Google wdrożył środki zaradcze do wykrywania i zapobiegania niewłaściwemu wykorzystaniu sztucznej inteligencji, rosnące wyrafinowanie rozpoznania i wykorzystywania sieci wspomagane przez AI stanowi ciągłe wyzwanie dla specjalistów ds. Bezpieczeństwa narodowego i bezpieczeństwa cybernetycznego Strong> Rosja: minimalna rola AI w sponsorowanym przez państwo hakowaniu

Podczas gdy państwo grup hakerskich w Chinach, Iranu i Korei Północnej szybko przyjęły sztuczną inteligencję do cyber Pozostaje stosunkowo ograniczony w bezpośrednich działaniach hakowania.

Analiza Google sugeruje, że hakerzy wspierani przez państwo albo unikają zachodnich platform AI, takich jak Gemini, albo polegają na opracowanych krajowych modelach AI z powodów bezpieczeństwa operacyjnego. W przeciwieństwie do innych narodów, które wykorzystały sztuczną inteligencję w zakresie badań phishingowych, infiltracji sieci i podatności, zaangażowanie Rosji w sztuczną inteligencję wydaje się bardziej skoncentrowane na wojnie informacyjnych i oszustwa cyfrowym niż bezpośrednich cyberatakach.

Raport Google stwierdza, że ​​Rosja ma Minimalne wykorzystanie narzędzi opartych na AI do cybernetycznych operacji technicznych, co stanowi wyraźny kontrast z wysokiej objętościowych phishing i rozpoznawczy obserwowany w Iranie i Chinach.

Jednak zamiast skupiać się na bezpośrednich atakach, rosyjscy aktorzy eksperymentowali z propagandą generowaną przez AI, technologią głębokiego Fake i zautomatyzowaną manipulacją mediów społecznościowych, szczególnie w odniesieniu do Ukrainy, NATO i szerszych narracji geopolitycznych zachodnich.

Według raportu: „Rosja aktywność AI wydaje się być nieproporcjonalnie skoncentrowana na operacjach wpływu, a nie technikach intruzyjnych cybernetycznych.” Sugeruje to, że cyberprzestrzeni Kreml pozostaje zakorzeniona w tradycyjnych atakach opartych na złośliwym oprogramowaniu, operacjach szpiegowca i Od dawna podręcznik kampanii dezinformacyjnych.

Chociaż zaangażowanie Rosji w sztuczną inteligencję jest niższe niż oczekiwano, badacze Google wskazują, że rosyjscy aktorzy mogą zwiększyć istniejące operacje cybernetyczne poprzez złośliwe oprogramowanie i techniki ponownego zapisania/p>

Oznacza to, że chociaż Rosja może nie używać sztucznej inteligencji do generowania nowych metod cyberataku, prawdopodobnie wdraża sztuczną inteligencję, aby utrudnić swoje złośliwe oprogramowanie. Techniki szyfrowania z AI-holą mogą umożliwić warianty złośliwego oprogramowania na uniknięcie tradycyjnych środków bezpieczeństwa poprzez dynamiczną zmianę wzorców kodu, podejście, które zostało zaobserwowane w kampaniach zaawansowanych trwałego zagrożenia (APT) przypisywanych rosyjskim grupom hakującym.

w dziedzinie Dezinformacji napędzanej AI Rosja wykazała znacznie bardziej aktywne i wyrafinowane podejście. Raport GTIG podkreśla, że ​​rosyjskie operacje wpływów wykorzystały sztuczną inteligencję do generowania i wzmacniania propagandy na dużą skalę, tworząc syntetyczne artykuły prasowe, wygenerowane przez AI osobowości mediów społecznościowych, a nawet głębokie treści w celu manipulowania postrzeganiem publicznego.

„Zauważyliśmy Rosyjskie podmioty zagrożenia wykorzystujące treści generowane przez AI w celu zwiększenia wiadomości wspieranych przez państwo i rozszerzenia zasięgu ich kampanii wpływowych “, stwierdza raport, potwierdzając, że sztuczna inteligencja odegrała rolę w automatyzacji i dopracowaniu długoletnich wysiłków Rosji w cyfrowej propagandzie.

Centralnym celem rosyjskich działań wpływowych były jego narracje wokół Ukrainy i NATO, które zostały szeroko rozpowszechnione na platformach mediów społecznościowych. Zasady i zniekształcenie publicznego postrzegania konfliktów wojskowych./p>

Podczas gdy niechęć Rosji do integracji sztucznej inteligencji z bezpośrednim operacjami hakującymi wyróżnia ją od Chin i Iranu, jego intensywne wykorzystanie kampanii na rzecz wpływów cyfrowych podkreśla ewoluujące podejście do wojny informacyjnej. Odkrycia Google wskazują, że Rosja może nie używać sztucznej inteligencji do włamania się do systemów-ale z pewnością wykorzystuje ją do kształtowania globalnych narracji, manipulowania opinią publiczną i podtrzymywania taktyk wojny hybrydowej.

AI w dezinformacji oraz operacje wpływające na

Poza hakowaniem, AI jest coraz częściej stosowana do kampanii wpływowych, zautomatyzowaną dezinformację i tworzenie propagandy. Według raportu Google, Iran, Chiny i Rosja przetestowały AI pod kątem wysiłków manipulacyjnych społecznych. Chińskie i irańskie grupy operacyjne informacyjne (IO) mają:

użyte treści generowane przez AI do wiadomości politycznych w wielu językach. Zastosowano techniki SEO zasilane AI w celu wzmocnienia fałszywych wiadomości. Zautomatyzowane tworzenie osobowości w celu wpływania na dyskusje w mediach społecznościowych.

Jak stwierdza raport Google: „Aktorzy IO próbowali użyć Gemini do badań, generowania treści, w tym rozwijających się osobowości i wiadomości, tłumaczenia i lokalizacji oraz znalezienia sposobów na zwiększenie ich zasięgu.”

To jest zgodne Poprzednie raporty pokazujące, że Fałszywe wiadomości i głębokie oskarżenie są wykorzystywane do podważania zaufania publicznego w instytucjach demokratycznych.

, podczas gdy Rosja była wolniejsza w użyciu sztucznej inteligencji do bezpośredniego hakowania, jej wpływ Kampanie są bardziej zaawansowane w AI. i rządy zachodnie. Ekosystem.

Środki bezpieczeństwa i odpowiedź Google

Google podjął proaktywne kroki w celu złagodzenia niewłaściwego użycia sztucznej inteligencji, stwierdzając, że kontrole bezpieczeństwa Gemini z powodzeniem zablokowały próby Ai-zasilane cyberataki. Jednak rosnące zagrożenie stwarzane przez modele AI open source jest trudniejsze do powstrzymania. Google zaimplementował:

kontrole bezpieczeństwa w Gemini , aby zapobiec generowaniu sztucznej inteligencji złośliwego kodu. Zakończenia konta dla zidentyfikowanych działań grupowych . AI niewłaściwe śledzenie za pośrednictwem Bezpiecznego Frameworka AI (SAIF) .

Jednak, jako Kent Walker, dyrektor prawny Google, ostrzega: „Ameryka posiada główną rolę w wyścigu AI-ale nasza przewaga może nie trwać”..

W miarę ewolucji AI jego podwójne zastosowanie stworzy zarówno możliwości, jak i ryzyko. Operacje.

Categories: IT Info