Openai zakazał wielu kont po zidentyfikowaniu ich zaangażowania w „skoordynowane operacje wpływów” powiązane z Chinami. Rachunki rzekomo wykorzystały modele Openai do generowania i rozpowszechniania narracji politycznych, automatyzacji kampanii dezinformacyjnych i pomocy w opracowywaniu narzędzi nadzoru ukierunkowanych na zachodnie organizacje./p>

Firma podjęła działania po wykryciu wzorców wygenerowanych przez AI treści wykorzystywanych do wiadomości geopolitycznych, a także danych Scrapowanie aplikacji wywiadowczych. Pitche i kod debugowania asystenta AI do gromadzenia danych w czasie rzeczywistym na temat protestów anty-chiny w krajach zachodnich, takich jak USA i Wielka Brytania ” Ten ruch jest częścią szerszej inicjatywy, aby ograniczyć niewłaściwe wykorzystanie sztucznej inteligencji w zautomatyzowanej wojnie informacyjnej.

Odkrycie następuje wcześniejszych ostrzeżeń, że grupy hakerskie wspierane przez państwo wykorzystują sztuczną inteligencję do automatyzacji cyberataków, podkreślając ewoluującą rolę AI w zarówno cyfrowej propagandzie i Cyber ​​Warfare.

Jak Openai wykrył podejrzaną aktywność

Systemy monitorowania Openai zidentyfikowały nieprawidłowe wzorce użytkowania, w których niektóre relacje wytwarzały systematyczne, na dużą skalę, a nie organiczne interakcje. Treść wydawała się dostosowana do wysiłków politycznych, mając na celu manipulowanie dyskusjami na wielu platformach.

Ponadto niektóre konta wydobywały treści generowane przez AI na dużą skalę, prawdopodobnie przeznaczając je do szkolenia lub ulepszania modeli nadzoru. Analityk ds. Bezpieczeństwa zauważył, że odkrycia Openai wskazują na bardziej zautomatyzowane i ustrukturyzowane podejście do kampanii generowanych przez AI, niż wcześniej zaobserwowano.

Openai potwierdzone w oświadczeniu: „Aktorzy zagrożeni czasami dają nam spojrzenie na to, co robią W innych częściach Internetu ze względu na sposób korzystania z naszych modeli. “Firma podkreśliła, że ​​jej zaktualizowane systemy wykrywania będą nadal monitorować wykorzystanie sztucznej inteligencji, aby zapobiec dalszemu wykorzystaniu.

Ustalenia Google dotyczące cyberataków opartych na AI

Podczas gdy zakazy Openai podkreśla rolę AI w operacjach wpływu cyfrowego, raport Google Cyberbezpieczeństwo podkreśla rosnące wykorzystanie sztucznej inteligencji w hakowaniu, phishing i danych Kradzież. Rozwój złośliwego oprogramowania z AI-wzmocnionym.

Naukowcy Google ostrzegają, że te cyberataki napędzane przez AI obniżają barierę wejściową dla wyrafinowanego hakowania, umożliwiając cyberprzestępczości szybkie skanowanie systemów podatności na luki i generowanie spersonalizowanych treści phishingowych w skali, która była wcześniej niemożliwa. Korzystanie z narzędzi głębokichfake z napędem AI dodatkowo komplikuje obronę bezpieczeństwa, ponieważ atakujący mogą podszywać się pod prawdziwymi osobami w głośnych oszustwach.

Ekspert ds. Bezpieczeństwa cybernetycznego zaangażowany w badania stwierdził: „Zaobserwowaliśmy rosyjskie podmioty zagrożenia przy użyciu AI-AI-AI-AI-Wygenerowana treść w celu zwiększenia wiadomości wspieranych przez państwo i rozszerzenia zasięgu ich kampanii wpływowych. “Ustalenia wzmacniają obawy, że AI jest używane nie tylko do operacji wpływowych, ale także do bezpośredniego Cyberprzestrzeniowe wysiłki ukierunkowane na infrastrukturę krytyczną.

Chin Deepseek AI i jej rola w informacjach kontrolowanych przez AI

Pracenizacja pojawia się w związku z rosnącymi obawami nad Deepseek R1, a Opracowany przez chiński model rozumowania AI podejrzany o dostosowanie reakcji do narracji zatwierdzonych przez rząd. Pomija politycznie wrażliwe tematy, wzmacniając obawy dotyczące wykorzystania AI jako narzędzie do kontroli informacji.

Au AI AI AI AI ujawnił, że Deepseek nie powiódł 83% testów dokładności faktycznej, z wyników wskazujących na kontrolowane przez stan filtrowanie danych. W raporcie podkreślono, że jego odpowiedzi były stronnicze na wzmocnienie oficjalnych narracji, co czyni go potencjalnym zasobem w sponsorowanych przez państwo kampaniach dezinformacyjnych.

Domniemane zaangażowanie Deepseek w szerszą strategię wpływu AI w Chinach doprowadziło do podwyższonej kontroli, w szczególności jego Potencjalna integracja z cyber inteligencją i wysiłkami na rzecz nadzoru masowego.

U.S. Porusza się, aby zakazać AI Deepeek w zakresie zagrożeń bezpieczeństwa narodowego

Jako obawy o głębokość AI Mount, amerykańscy ustawodawcy wprowadzili wysiłki na rzecz zakazania modelu, powołując się na potencjalne zagrożenie dla bezpieczeństwa narodowego. Proponowane przepisy mają na celu zapobieganie korzystaniu z AI Deepeek w agencjach rządowych, infrastrukturze krytycznej i instytucjach badawczych, wśród obaw przed narażeniem danych i zagrożeniom dezinformacji opartej na AI.

Push przepisów ustawodawczy Ślad AI na Zachodzie, w tym wcześniejsze działania przeciwko chińskim firmom technologicznym.

Krytycy twierdzą, że obecność Deepeek Ai Na rynkach zachodnich mogą wprowadzać luki w zabezpieczeniach, umożliwiając ukryte kampanie i gromadzenie inteligencji za pośrednictwem manipulacji treściami zasilanymi przez AI.

Zakępienie bez cenzury modelu Deepseek rodzi nowe pytania

W odpowiedzi na rosnące obawy dotyczące cenzury Deepeek AI, zakłopotanie AI przyjęło niekonwencjonalne podejście, wydając zmodyfikowaną wersję Deepseek R1 zwany R1 1776, który usuwa ograniczenia treści narzucone przez państwo. Ta wersja została zaprojektowana, aby umożliwić badaczom dostęp do pełnych możliwości Deepseek bez filtrowania rządu.

Ruch podzielił ekspertów AI. Podczas gdy niektórzy twierdzą, że ta wersja promuje przejrzystość i otwarte badania, inni ostrzegają, że usunięcie cenzury na poziomie powierzchni nie eliminuje uprzedzeń osadzonych w oryginalnych danych szkoleniowych modelu. Modele AI przeszkolone w ramach reżimów restrykcyjnych często przenoszą ukryte uprzedzenia, nawet po usuwaniu zasad cenzury.

Pomimo twierdzeń o otwartości, R1 1776 nie jest całkowicie pozbawiony uprzedzeń. Dane szkoleniowe i korekty modeli nadal odzwierciedlają wybory dokonane przez programistów zakłopotania. Badacze AI twierdzą, że żaden system AI nie może być naprawdę neutralny, ponieważ odpowiedzi z natury są kształtowane przez dane i metodologie stosowane podczas szkolenia.

Dodatkowo wydanie nieocenzurowanej wersji modelu opracowanego w ramach ograniczonego ekosystemu informacji Przedstawia większy dylemat etyczny: czy systemy AI zbudowane pod kontrolą rządu powinny być modyfikowane i redystrybuowane bez znajomości, w jaki sposób wybrano ich dane szkoleniowe?

Jakie zakazy Openai i głębokie kontrowersje oznaczają zarządzanie AI

Szybka eskalacja roli AI w globalnym bezpieczeństwie, cybernetyce i wpływach politycznych podkreśla potrzebę silniejszych ram zarządzania AI. Decyzja Openai o zablokowaniu kont związanych z Chinami sygnalizuje, że firmy AI odgrywają bardziej aktywną rolę w zapobieganiu niewłaściwemu użyciu, ale same interwencje w sektorze prywatnym nie wystarczą.

USA na dążenie do zakazania AI Deepseek AI, w połączeniu z Google Ostrzeżenia dotyczące cyberataków wzmocnionych AI ilustrują, w jaki sposób sztuczna inteligencja nie jest już tylko narzędziem innowacji-staje się również ryzykiem geopolitycznym i ryzykiem bezpieczeństwa.

Agresywna ekspansja AI w Chinach, szczególnie w zastosowaniach nadzoru i bezpieczeństwa narodowego, wyjaśniła, że ​​AI będzie odgrywać główną rolę w konfliktach geopolitycznych. Jednocześnie modele AI opracowane na Zachodzie, w tym GPT-4 Openai, stają przed kontrolą potencjalnych uprzedzeń i obaw regulacyjnych. Wyzwanie przede wszystkim leży w znalezieniu równowagi między rozwojem sztucznej inteligencji, bezpieczeństwem i odpowiedzialnością etyczną.

Przyszłość AI w konfliktach globalnych

zakazy Openai, Deepseek Problemy cenzury AI i zakłopotanie modyfikacje AI wskazują na jeden wniosek-stały się aktywnym graczem w globalnych konfliktach. Niezależnie od tego, czy są wykorzystywane do kampanii wpływowych, cyberataków, czy inwigilacji, systemy AI kształtują międzynarodowe walki o władzę w sposób, w jaki wcześniej nie ma wcześniejszych technologii.

Eksperci przewidują, że nadchodzące przepisy AI skupiają się na trzech kluczowych obszarach: zwiększonej przejrzystości w AI Szkolenie zestawów danych, ulepszone protokoły bezpieczeństwa cybernetycznego i surowsza międzynarodowa współpraca w zakresie zarządzania AI. Pozostaje jednak wyzwaniem, aby te przepisy nie stłumią innowacji, jednocześnie zapobiegając zastosowaniu AI do dezinformacji, szpiegostwa i cyberprzestępstw.

z głównymi firmami technologicznymi, rządami i analitykami bezpieczeństwa, aby się dostosować, dostosować się, Pytanie nie brzmi już, czy sztuczna inteligencja będzie czynnikiem w globalnym bezpieczeństwie-już jest. Prawdziwe pytanie brzmi: kto będzie kontrolował przyszłość AI i jak będzie kształtować następną erę konfliktu geopolitycznego?

Categories: IT Info