Openai podjął decydujące działania przeciwko sponsorowanemu przez państwo groźbom cybernetycznym, zakazując wielu kont związanych z podmiotami w Chinach i Korei Północnej. W opublikowanym raporcie o zagrożeniu 8 października, firma ujawniła, że ​​grupy te wykorzystały swoje modele AI do opracowywania propozycji narzędzi nadzoru, opracowywania kampanii phishingowych i pomocy w tworzeniu złośliwego oprogramowania.

Ruch to podkreśla rosnący front w zimnej wojnie AI, gdzie Openai aktywnie pracuje, aby zapobiec broni przez technologię w zakresie broni przez reguły autorytatywne. Utrzymuje swoje zabezpieczenia pomyślnie zablokowane bezpośrednie żądania złośliwego kodu oraz że

aktorzy sparceniowe Exploit ai dla nadzoru i phishing

Inne konta powiązane z Chinami wykorzystały AI do gromadzenia wywiadu typu open source, próbując zidentyfikować krytyków rządu i znaleźć ich źródła finansujące. Działanie to stanowi wyraźny wysiłek wykorzystania zaawansowanej technologii do nadzoru państwa i tłumienia sprzeciwu, zgodnie z ustaleniami firmy.

Tymczasem operatorzy Korei Północnej skupili się na bardziej tradycyjnych taktykach cyberprzestępczości. Wykorzystali Chatgpt do badań technik phishingowych, kradzieży poświadczenia i rozwoju złośliwego oprogramowania, ze szczególnym naciskiem na macOS Apple. Ich zapytania obejmowały debugowanie złośliwego kodeksu i badanie strategii inżynierii społecznej.

„szare strefa” niewłaściwego użycia: wydajność nad nowością

Dochodzenie Openai ujawnia kluczowy wgląd w obecny stan cyberprzestępczości: Zamiast tego

Firma nie znalazła dowodów na to, że jej modele zapewniały napastnikom nowe taktyki lub możliwości ofensywne, których nie mogliby dostać gdzie indziej.

Takie podejście często działa w tym, co Openai nazywa „szarej strefą” działalności podwójnego użytkowania. Znaczna część złośliwego użycia dotyczyła podpowiedzi dotyczących pozornie nieszkodliwych zadań, takich jak tłumaczenie tekstu, modyfikowanie kodu lub tworzenie strony internetowej.

Te żądania stają się groźne tylko na podstawie kontekstu i intencji użytkownika, stanowiąc złożone wyzwanie wykrywania.

Operatorzy koreańscy, na przykład, na przykład operatory koreańskie, na przykład operatory logów koreańskiego. Jednak, jak zauważa raport, działania te „nabierają innego znaczenia, gdy są przeznaczone przez aktora zagrożonego”. Celem nie był wynalazek, ale przyspieszenie istniejących operacji cybernetycznych.

Podobnie grupa phishingowa powiązana z Chinami wykorzystywała AI do poszukiwania przyrostowej wydajności. Główną zaletą, jaką zdobyli, było „płynność językowa, lokalizacja i trwałość”. Przełożyło się to na generowanie wiadomości e-mail z mniejszą liczbą błędów języka, tworzenie „szybszego kodu kleju” i dokonywanie szybszych dostosowań, gdy ich początkowe ataki nie powiodło się.

Najwyższym celem była szybkość i skala. Dla tych aktorów sukces oznaczał tworzenie gotowych do usunięcia e-maili phishingowych i osiągnięcie „skróconych cykli iteracji w celu rutynowego kodu i automatyzacji”. Koncentracja na rozszerzeniu tradycyjnego tradycyjnego, zamiast tworzenia nowych form ataku, jest kluczowym odkryciem dochodzenia Openai.

W trakcie tych operacji Openai podkreślił, że jego zabezpieczenia konsekwentnie utrzymywały stanowcze przed bezpośrednimi zagrożeniami. Raport stwierdza, że ​​swoje modele „konsekwentnie odmawiają wprostu złośliwych żądań”. W przypadku rosyjskojęzycznego dewelopera złośliwego oprogramowania, system specjalnie odmówił bezpośrednich żądań exploitów i keyloggerów.

Jednak podmioty zagrożone dostosowują się. Raport podkreśla przypadki „adaptacji i zaciemnienia”, w których złośliwe użytkownicy zmieniają swoje zachowanie, aby uniknąć wykrycia. Niektóre sieci oszustwa, świadome dyskusji online na temat wzorców tekstów generowanych przez AI, specjalnie poinstruowały model, aby usunął EM-Dashes, aby wyodrębniał się bardziej ludzki.

Ta dynamiczna ilustruje podstawowe wyzwanie dla platform AI. Według Openai. Skuteczna obrona wymaga „dopracowanego i świadomego podejścia, które koncentruje się na wzorcach zachowania aktorów zagrożonych, a nie izolowanych interakcjach modelu”. Odróżnienie łagodnego zapytania kodowania od jednego, które mają na celu udoskonalenie złośliwego oprogramowania, to nowa linia pierwszej linii bezpieczeństwa platformy.