OpenAI i Anduril Industries ogłosiły partnerstwo mające na celu włączenie zaawansowanej sztucznej inteligencji do przeciwzałogowe systemy powietrzne (C-UAS), co oznacza jak dotąd najbardziej bezpośrednie zaangażowanie OpenAI w technologię obronną.
Współpraca ma na celu wsparcie amerykańskiej armii zdolność do wykrywania i neutralizowania zagrożeń powietrznych stwarzanych przez bezzałogowe statki powietrzne (UAV).
Partnerstwo łączy wiedzę specjalistyczną OpenAI w zakresie uczenia maszynowego z autonomicznymi systemami Anduril, w tym platformą Lattice, która integruje strumienie danych w czasie rzeczywistym w celu szybkiego wykrywania zagrożeń analiza.
Podkreślanie znaczenia odpowiedzialnego wdrażania sztucznej inteligencji, OpenAI Dyrektor generalny Sam Altman stwierdził: „Nasze partnerstwo z firmą Anduril pomoże zapewnić, że technologia OpenAI chroni amerykański personel wojskowy oraz pomoże społeczności bezpieczeństwa narodowego zrozumieć i odpowiedzialnie korzystajmy z tej technologii, aby zapewnić naszym obywatelom bezpieczeństwo i wolność.”
Zmiany w polityce, które otworzyły drzwi dla wojskowej sztucznej inteligencji
Ta współpraca jest zakorzeniona w ewoluującym rozwoju OpenAI podejście do zastosowań wojskowych. W styczniu 2024 r. firma zaktualizowała swoje warunki świadczenia usług, konsolidując ograniczenia dotyczące zastosowań wojskowych w szerszych wytycznych etycznych. Zmiany te umożliwiły partnerstwo w scenariuszach bezpieczeństwa narodowego zgodnych z misją OpenAI.
Rzecznik OpenAI Niko Felix wyjaśnił wówczas tę rewizję, stwierdzając: „Nasza polityka nie pozwala, aby nasze narzędzia szkodziły ludziom, opracowywały broń lub niszczyły mienie. Istnieją jednak przypadki użycia w zakresie bezpieczeństwa narodowego, które są zgodne z naszą misją.”
Aktualizacja odzwierciedla rosnące zainteresowanie OpenAI partnerstwami rządowymi, w tym projektem z DARPA w celu opracowania narzędzi cyberbezpieczeństwa do ochrony infrastruktury krytycznej. Te zmiany w polityce ułatwiły również firmie współpracę z organizacjami zajmującymi się obronnością, zachowując jednocześnie stanowisko przeciwko szkodliwemu wykorzystaniu sztucznej inteligencji.
Ewolucja AI w obronność ilustruje wcześniejsza oferta Microsoftu dotycząca DALL-E skierowana do Departamentu Obrony USA. W propozycji rozważano wykorzystanie generatywnej sztucznej inteligencji do tworzenia obrazów na potrzeby symulacji szkolenia wojskowego. Chociaż inicjatywa podkreśliła potencjał sztucznej inteligencji w dziedzinie obronności, OpenAI zdystansowała się, ponownie podkreślając swoje zaangażowanie w kwestie etyczne zasad.
Rzecznik Microsoftu opisał ówczesną propozycję jako „badanie sztuki tego, co możliwe dzięki generatywnej sztucznej inteligencji”, ale OpenAI wyjaśniło, że jego narzędzia nie były zaangażowane w rozwój ani wspieranie propozycję.
Powiązane: DJI kontra Departament Obrony USA: Dlaczego największy na świecie producent dronów pozywa
Anduril: Wschodząca siła w Technologia obronna
Założona przez wynalazcę Oculusa, Palmera Luckeya, firma Anduril Industries specjalizuje się w autonomicznych systemach obronnych, w tym dronach, rakietach wielokrotnego użytku i łodziach podwodnych. Zastrzeżona platforma Lattice wykorzystuje analitykę opartą na sztucznej inteligencji w celu zwiększenia świadomości sytuacyjnej i automatyzacji reakcji na zagrożenia. Firma współpracuje również z Microsoftem przy tworzeniu gogli wojskowych dla armii amerykańskiej.
Anduril zdobył w ostatnich latach znaczące kontrakty rządowe. W październiku 2024 r. wprowadziła drona Bolt-M, przenośny system z plecakiem, przeznaczony do szybkiego rozmieszczenia na polu walki. Firma zabezpieczyła także kontrakt o wartości 99,7 mln dolarów z Dowództwem Kosmicznym Stanów Zjednoczonych na rozszerzenie swoich możliwości w zakresie technologii kosmicznej.
[treści osadzone]
Komentując współpracę z OpenAI, dyrektor generalny Anduril, Brian Schimpf, zauważył:
„Nasze partnerstwo z OpenAI umożliwi nam wypełnienie palących luk w globalnych możliwościach obrony powietrznej, zapewniając jednocześnie odpowiedzialne wdrażanie tych technologii.”
Powiązane: Pentagon i DHS zwiększają wydatki na sztuczną inteligencję w ramach setek kontraktów
Szerszy kontekst: globalny wyścig zbrojeń AI
Partnerstwo OpenAI-Anduril pojawia się w obliczu eskalacji konkurencji między Stany Zjednoczone i Chiny zdominowały wojskową sztuczną inteligencję. Obydwa kraje intensywnie inwestują w sztuczną inteligencję, aby utrzymać strategiczne przewagi, przy czym Stany Zjednoczone ograniczają lub zakazują Chinom dostępu do wiodącej technologii chipów.
In we wspólnym oświadczeniu OpenAI i Anduril ostrzegły: „Podjęte dzisiaj decyzje zadecydują o tym, czy Stany Zjednoczone pozostaną liderem w XXI wieku, czy też istnieje ryzyko, że zostaną wyprzedzone przez przeciwników, którzy nie podzielają naszego zaangażowania na rzecz wolności i demokracji”.
W tym wyścigu konkurencyjne firmy, takie jak Anthropic, weszły do sektora obronnego. W listopadzie 2024 r. firma Anthropic nawiązała współpracę z Palantir i AWS, aby zintegrować swój model Claude 3.5 z operacjami wywiadowczymi USA, wykorzystując platformę Palantir do analizowania tajnych danych.
Podczas gdy Claude 3.5 przoduje w zniuansowanym rozumowaniu, GPT-4o OpenAI jest zoptymalizowany do szybkiej wielozadaniowości, oferując wyraźne korzyści w przypadku skalowalnych operacji.
Wykorzystywanie sztucznej inteligencji w obronności jest kontynuowane podnosić kwestie etyczne, szczególnie dotyczące prywatności, stronniczości i nadzoru.
Aktualizacja zasad OpenAI ze stycznia 2024 r. miała na celu sprostanie tym wyzwaniom, kładąc nacisk na przejrzystość i odpowiedzialność. Krytycy twierdzą jednak, że niejasności w zmienionych wytycznych pozostawiają miejsce na błędne interpretacje, szczególnie w zastosowaniach wojskowych, gdzie granica między zastosowaniami defensywnymi i ofensywnymi może się zatrzeć.
Partnerstwo OpenAI-Anduril podkreśla transformacyjny potencjał sztucznej inteligencji w zastosowaniach krajowych bezpieczeństwo. Ponieważ systemy obronne stają się coraz bardziej zależne od technologii autonomicznych, tego typu współpraca uwypukla cienką granicę między innowacją a etyką. Wraz z nasileniem się globalnego wyścigu zbrojeń opartego na sztucznej inteligencji stawka odpowiedzialnego wdrożenia nigdy nie była wyższa.