Meta zaprezentował znaczącą zmianę podejścia do sztucznej inteligencji (AI) wraz z uruchomieniem
Te obawy bezpieczeństwa doprowadziły Meta do ponownego rozważenia strategii wdrażania AI. Wprowadzając Frontier AI Framework, Meta ma na celu ograniczenie ryzyka związanego z uwalnianiem systemów AI, które można wykorzystać do szkodliwych celów. Meta pisze,
„W tych ramach będziemy priorytetowo traktować ryzyko katastrofalnej szkody, zapewniając, że nasze modele nie są wykorzystywane do niezamierzonych złośliwych celów, jednocześnie umożliwiając postęp i innowacje.”
Ramy AI oparte na ryzyku: wysokie ryzyko vs. ryzyko krytyczne
Frontier AI Framework klasyfikuje systemy AI na dwie odrębne kategorie: ryzyko wysokiego ryzyka i ryzyko krytyczne. Obie kategorie są zdefiniowane przez potencjalną szkodę, które te modele mogą spowodować, jeśli zostaną wykorzystane, ale rozróżnienie polega na nasileniu ich konsekwencji.
Modele wysokiego ryzyka mogą ułatwić szkodliwe działania, takie jak naruszenia bezpieczeństwa cybernetycznego lub pomaga w tworzeniu Niebezpiecznych czynników biologicznych lub broni. Tworzenie broni biologicznej lub cyberatak na pełną skalę dotyczącą infrastruktury krytycznej.
Decyzja Meta o ograniczeniu dostępu do systemów wysokiego ryzyka do momentu wdrożenia odpowiednich zabezpieczeń jest kluczowym krokiem w równowadze innowacji AI z bezpieczeństwem. Jak podkreśla firma: „Uważamy, że rozważając zarówno korzyści, jak i ryzyko podejmowania decyzji dotyczących rozwoju i wdrażania zaawansowanej sztucznej inteligencji, możliwe jest dostarczenie tej technologii społeczeństwu w sposób, który zachowuje również korzyści tej technologii dla społeczeństwa Utrzymanie odpowiedniego poziomu ryzyka. „
Odejście od otwartego dostępu do otwartego dostępu do AI
Nowa strategia meta reprezentuje znaczące obrotu z wcześniejszego stanowiska na temat otwartego AI. Zewnętrzni aktorzy niezamierzonych i potencjalnie szkodliwych celów, takich jak rozwój narzędzi obronnych, które mogą być wykorzystywane do złośliwych celów.
Aby uzyskać szczegółowe spojrzenie na poprzednią stratgię otwartego dostępu i wyzwania, które napotkała Meta, sprawdź nasze artykuły na temat tego, czego Meta nie mówi o modelach „open source” i definicji AI open source z inicjatywy Open Source Initiative.
Dzięki nowej frameworku AI Frontier, Meta przyjmuje znacznie bardziej ostrożne podejście, mówi: „Nie zamykamy drzwi na przyszłości AI z otwartym dostępem, ale musimy upewnić się, że umieścimy właściwe prawo Mechanizmy obowiązujące w celu zapobiegania niewłaściwemu wykorzystaniu technologii, które mogłyby być szkodliwe dla całego społeczeństwa. “
, aby to osiągnąć, ramy nie tylko kategoryzuje modele AI według poziomu ryzyka, ale także zapewnia wyraźny proces określenia, jak wysoki-Modele ryzyka będą obsługiwane. Systemy wysokiego ryzyka będą ograniczone do dostępu wewnętrznego, z dodatkowymi zabezpieczeniami wprowadzonymi przed szerszym wdrożeniem. Modele ryzyka krytycznego będą napotkać jeszcze bardziej rygorystyczne elementy sterujące, w tym całkowite zatrzymanie w rozwoju, dopóki nie zostaną przerobione w celu złagodzenia ich potencjalnych niebezpieczeństw. Podejście meta-
stoi w przeciwieństwie do podejścia niektórych jego konkurentów. Podczas gdy firmy takie jak OpenAi zdecydowały się na bardziej kontrolowany dostęp do swoich modeli, Meta’s Poruszanie się w kierunku ograniczenia dostępu jeszcze bardziej odzwierciedla rosnące obawy dotyczące niewłaściwego użycia AI.
AI wysokiego ryzyka vs. AI: Co: Co Oznacza to, że dla rozwoju AI Meta
Różnica Meta między systemami AI wysokiego ryzyka i krytycznego ryzyka ma kluczowe znaczenie dla zrozumienia, w jaki sposób firma będzie poruszać się po rozwoju i wdrażaniu jej modeli.
Systemy AI wysokiego ryzyka, zgodnie z Meta, mogą ułatwić cyberataki lub pomóc w tworzeniu szkodliwych czynników biologicznych. Jednak potencjalny wpływ tych modeli byłby prawdopodobnie mniej poważny niż systemy ryzyka krytycznego, które są zdolne do powodowania niekontrolowanej, powszechnej szkody.
Te systemy ryzyka krytycznego mogą mieć katastrofalne konsekwencje, takie jak umożliwienie The Updet-the Updets the the the Updet-the the Updet-the the Updet-the the Updet-the the Updleta Proliferacja broni biologicznej lub powodowanie znacznych zakłóceń w infrastrukturze krytycznej.
poprzez ustalenie tego rozróżnienia, Meta tworzy ramy, które pomagają skuteczniej zarządzać ryzykiem AI. Jak zauważa Meta, decyzja o wydaniu określonego modelu AI zostanie podjęta poprzez rozważenie zarówno jego potencjalnych korzyści, jak i ryzyka.
Podczas gdy Meta jest zaangażowana w otwarte wydanie systemów AI, firma uznaje, że Firma przyznaje, że Firma przyznaje, że The The Ryzyko związane z potężnymi narzędziami AI należy ostrożnie zważyć przed jakimkolwiek wdrożeniem.
Dlaczego meta wdraża te ograniczenia
Wprowadzenie znaków Frontier AI Framework Framework punkt zwrotny dla meta. Podczas gdy firma była zwolennikiem otwartości i dostępności w rozwoju sztucznej inteligencji, jej decyzja o wdrożeniu surowszych kontroli pojawia się w czasie, gdy ryzyko związane z technologiami sztucznej inteligencji stało się bardziej widoczne.
Odejście od otwartego-Model dostępu odzwierciedla szersze obawy branżowe dotyczące bezpieczeństwa i bezpieczeństwa zaawansowanych systemów AI, zilustrowane niedawnym wydaniem systemu AI AI AI AI, zwanego Klasyfikatory konstytucyjne , które mają na celu filtrowanie zarówno przychodzących podpowiedzi, jak i reakcji generowanych przez AI.
wydaje się, że istnieje rosnący konsensus, który, gdy technologia AI staje się silniejsza i wszechobecna, ryzyko ryzykuje związane z jego niewłaściwym wzrostem. Na przykład
doniesienia o zagranicznych podmiotach korzystających z modeli meta dla celów związanych z obroną podkreślają niebezpieczeństwa związane z uwalnianiem modeli AI bez wystarczających zabezpieczeń. Instytucje badawcze powiązane z chińską armią wyzwolenia ludu (PLA) Opracował narzędzie AI o nazwie„ Chatbit “przy użyciu publicznie dostępnej Lamy Meta może wspierać innowacje, może również pozostawić drzwi otwarte na potencjalnie szkodliwe zastosowania technologii