Google usunęło kluczowe ograniczenie z zasad AI, podnosząc zakaz aplikacji sztucznej inteligencji do broni i nadzoru.

Zmiana eliminuje politykę, która wcześniej uniemożliwia Google opracowanie technologii AI zaprojektowanych w celu spowodowania szkody szkodli lub włączyć masowe nadzór poza normami zaakceptowanymi na arenie międzynarodowej.

Ten ruch sygnalizuje przesunięcie podejścia Google do etyki AI, szczególnie w odniesieniu do zastosowań bezpieczeństwa narodowego i obrony.

Wersja zasad została szczegółowo opisana w Post na blogu Współautor przez Jamesa Manyika, szefa badań Google i Demis Hassabis, CEO Google DeepMind. „Uważamy, że demokracje powinny prowadzić w rozwoju AI, kierując się podstawowymi wartościami, takimi jak wolność, równość i szacunek dla praw człowieka”, napisali.

sformułowali tę zmianę w ramach wysiłku dostosowania się do ewolucji geopolitycznej i Krajobrazy technologiczne, stwierdzając, że „firmy, rządy i organizacje dzielące się tymi wartościami powinny współpracować w celu stworzenia sztucznej inteligencji, która chroni ludzi, promuje globalny wzrost i wspiera bezpieczeństwo narodowe.”

Czas zmiany pokrywa się z Alphabeta Ostatni raport o zarobkach, który nie spełnił oczekiwań Wall Street, pomimo 10% wzrostu przychodów z reklam. Jednocześnie firma ogłosiła w tym roku inwestycję o wartości 75 miliardów dolarów w projekty AI, znacznie przekraczając wcześniejsze szacunki rynkowe.

Usunięcie ograniczeń AI może pozwolić Google na realizację umów rządowych w zakresie obrony i wywiadu, przynosząc je Do bliższej konkurencji z firmami takimi jak Microsoft, Palantir i Amazon.

Od etyki AI do bezpieczeństwa narodowego: ewoluująca postawa Google

Od lat, wytyczne Google AI wyraźnie wykluczył opracowanie „broni lub innych technologii, których głównym celem lub wdrożeniem jest spowodowanie lub bezpośrednio ułatwienie obrażeń ludzi.”

Dodatkowo firma zobowiązała się nie realizować „technologii, które gromadzą lub wykorzystują informacje do informacji o Nadzór naruszający normy zaakceptowane na całym świecie “. Zobowiązania te, które zostały po raz pierwszy ustanowione w 2018 r., Zostały teraz usunięte ze strony polityki publicznej AI firmy.

Google pierwotnie przyjęły te ograniczenia w odpowiedzi na powszechne protesty pracowników w sprawie jego zaangażowania w Project Maven, inicjatywa Pentagon, inicjatywa Pentagon, inicjatywa Pentagon To wykorzystało sztuczną inteligencję do nadzoru dronów i kierowania.

Tysiące pracowników podpisało petycję domagającą się zakończenia jej udziału, z kilkoma rezygnacją z protestu. Reakcja zmusiła Google do porzucenia umowy, a później wycofania się z licytacji w ramach umowy o wartości 10 miliardów dolarów wojska amerykańskiego. wysiłki bezpieczeństwa. Jest to zgodne firmę z konkurentami, takimi jak Microsoft i Palantir, z których oba znacznie rozszerzyły swoje możliwości obrony oparte na AI.

Firmy technologiczne konkurujące o kontrakty wojskowe AI

Branża AI odnotowuje rosnące nakładanie się rozwoju komercyjnego i zastosowań wojskowych. Microsoft osadza modele Openai w infrastrukturę chmurową rządową Azure, umożliwiając amerykańskiemu wojskowi zintegrowanie narzędzi AI z bezpiecznymi operacjami wywiadowczymi. Tymczasem Palantir niedawno zabezpieczył umowę o wartości 480 milionów dolarów z Pentagonem na rozszerzenie możliwości decyzyjnych opartych na AI. Blog/Scale-Wartners-CDAO-to-Test-and-Evaluate-Llms”> Scale AI , który współpracuje z Pentagon Główne biuro cyfrowe i sztuczna inteligencja (CDAO) Aby przetestować i ocenić duże modele językowe dla zastosowań wojskowych.

Trend ten przyspieszył wśród rosnących obaw dotyczących roli AI w globalnym bezpieczeństwie, szczególnie jako China Ramps Inwestycje w systemy obronne napędzane AI.

Zmiana polityki Google sugeruje, że nie jest już skłonna siedzieć na boku, ponieważ AI staje się kluczowym elementem strategii obrony narodowej. Pytanie brzmi teraz, w jaki sposób ta zmiana wpłynie na wewnętrzną kulturę firmy, szczególnie biorąc pod uwagę jej historię oporu pracowników na projekty wojskowe AI.

Opór wewnętrzny i luz pracowników

Historia Google z wojskowymi projektami AI była naznaczona intensywnym oporem wewnętrznym. Najbardziej znanym przykładem były kontrowersje dotyczące projektu Maven, które doprowadziły do ​​powszechnych protestów pracowników i zmusiło Google do anulowania jego zaangażowania.

Jednak ostatnio podobne napięcia pojawiły się ostatnio wraz z Project Nimbus, w Cloud Cloud o wartości 1,2 miliarda dolarów z Amazon, który świadczył usługi rządowi izraelskiemu i wojsku.

Wewnętrzna krytyka projektu Nimbus spowodowała W serii demonstracji pracowników, których kulminacją Google Foling ponad 50 pracowników Wzb letnich w protestach w miejscu pracy przeciwko umowie. Pracownicy argumentowali, że projekt zaprzeczył wcześniejszym zasadzie AI Google, które wyraźnie wykluczyły pewne aplikacje wojskowe i nadzoru.

Deepmind, zaawansowany dział badań AI Google, również historycznie podkreślił silne rozważania etyczne w rozwoju AI. Niektórzy z jej badaczy wyrazili obawy dotyczące roli AI w bezpieczeństwie narodowym, szczególnie w autonomicznych systemach decyzyjnych. Dzięki tej najnowszej zmianie polityki pozostaje niepewne, czy siła robocza Google po raz kolejny zmobilizuje się przeciwko decyzji przywódcy.

Motywacje finansowe i strategiczne stojące za zmianami

Czas czasowy Wersja polityki AI Google sugeruje, że względy strategiczne i finansowe odegrały kluczową rolę. Ostatni raport z zarobków Alphabet spadł poniżej oczekiwań analityków, pomimo 10% wzrostu przychodów z reklam.

Dodatkowo firma ogłosiła, że ​​plany wydania 75 miliardów dolarów na rozwój sztucznej inteligencji w 2025 r., Przekraczając wcześniejsze szacunki rynkowe o 29%. W miarę nasila się konkurencja w sztucznej inteligencji, Google może ustawić się w celu zabezpieczenia nowych strumieni przychodów poza podstawową działalność reklamową.

Tymczasem rząd USA agresywnie rozszerza przyjęcie AI w obronie. Microsoft wzmocnił swoją rolę w sektorze poprzez partnerstwo z Palantirem, który ma głębokie powiązania z agencjami bezpieczeństwa narodowego. Microsoft połączył także siły z DARPA w sprawie wyzwania cyberbezpieczeństwa zasilanego AI, mającym na celu zabezpieczenie krytycznej infrastruktury.

Podobnie Anthropic współpracował z Departamentem Energii Stanów Zjednoczonych w celu oceny bezpieczeństwa swoich modeli AI Claude AI w środowiskach bezpieczeństwa jądrowego. Dzięki głównym firmom AI angażującym się w partnerstwa rządowe, decyzja Google o usunięciu narzuconych sobie ograniczeń AI sugeruje, że chce pozostać konkurencyjnym w tym szybko rozwijającym się sektorze.

Regulacja AI i nadzór etyczny pozostają nierozwiązane

Pomimo zmiany polityki niepewność regulacyjna nadal zbliża się do stosowania AI w zastosowaniach wojskowych. Podczas gdy rządy na całym świecie wprowadziły wytyczne dotyczące bezpieczeństwa AI, nie ma jasnych, wykonalnych ram prawnych rządzących rolą AI w bezpieczeństwie narodowym.

Narody USA, UE i G7 zaproponowały szerokie zasady etyki AI, ale praktyczne nadzór nad Pozostaje głównie w rękach prywatnych firm. (Patrz inicjatywa 2023 G-7 „Hiroshima Process”, ustawa UE AI i US National Institute of of of of of of Standardy i technologia (NIST) AI RAMINE MANAGUSE RAMES )

W swoim oficjalnym ogłoszeniu Google podkreślił, że będzie on nadal zgodny z „powszechnie akceptowanymi zasadami prawa międzynarodowego i praw człowieka”. Jednak, jednak, The the Human Rights. ” Brak konkretnych mechanizmów egzekwowania pozostawia otwarte pytania na temat tego, w jaki sposób firma oceni i ogranicza potencjalne ryzyko związane z aplikacjami AI w obronie.

Biorąc pod uwagę prędkość zintegrowaną AI ze strategią wojskową, wzywa do silniejszego nadzoru, prawdopodobnie będą mogły Rozwijaj się. Do etyki i bezpieczeństwa narodowego. 

Jednak reakcja pracowników Google i działu badań AI pozostaje niepewna. Dzięki historii wewnętrznej rezygnacji z umowami obronnymi firma może spotkać się z odnowioną sprzeciwem ze strony siły roboczej. Jednocześnie oczekuje się, że kontrola regulacyjna dotycząca roli AI w operacjach wojskowych wzrośnie, dodatkowo kształtując sposób, w jaki prywatne firmy angażują się z agencjami obronnymi i wywiadowczymi.

, ale jedno jest jasne: Google nie pozycjonuje się już tak, jak się nie pozycjonuje się jako Firma AI, która kategorycznie unika wniosków o bezpieczeństwo narodowe.

Categories: IT Info