W związku z rosnącymi kontrowersjami dotyczącymi tego, w jaki sposób giganci technologiczni zbierają dane użytkowników dla AI, Allen Institute for AI (AI2) wprowadził potencjalne rozwiązanie. Ich nowa modelowa architektura, FlexolMo, umożliwia organizacjom do współpracy AI bez udostępniania wrażliwych surowych danych .
elestolmo adresuje główne wąskie gułda w AI rozwoju: Podejście ma na celu wspieranie bezpiecznej współpracy danych w dziedzinach takich jak opieka zdrowotna i finanse, gdzie prywatność jest najważniejsza. Model kod i Papier badawczy są publicznie dostępne. Architektura dla wspólnej sztucznej inteligencji bez kompromisu
Podstawową innowacją stojącą za Flexolmo jest jej zastosowanie architektury mieszanki ekspertów (MOE). Ramy te traktują AI nie jako pojedynczy monolityczny byt, ale jako zespół specjalistów. Pozwala na nowe, rozproszone podejście do modelowania szkolenia, które przynosi potrzebę centralnego repozytorium danych.
zamiast łączenia danych, FlexolMo używa shicznie „Model publiczny” jako powszechny “. Ten zamrożony model publiczny stanowi stabilny fundament, wspólny język, z którym wszystkie odmienne moduły eksperckie są szkolone do dostosowania się. Ta koordynacja jest kluczem do pomyślnego połączenia ich bez kosztownego wspólnego szkolenia.
Różni się to od uczenia się federacyjnego, umożliwiając szkolenie asynchroniczne i dając właścicielom pełną kontrolę rezygnacji. Właściciele danych mogą lokalnie szkolić mniejsze, wyspecjalizowane moduły „eksperckie” na własnych prywatnych zestawach danych, ilekroć je odpowiadają.
Moduły ekspertów, które zawierają specjalistyczną wiedzę, mogą być następnie wniesione do głównego modelu FlexolMo bez surowych danych, które kiedykolwiek opuściły kontrolę właściciela. Ta modułowa konstrukcja zapewnia bezprecedensowy poziom elastyczności dla współpracowników.
Współpracownicy danych mogą dynamicznie dodawać lub usuwać swój moduł ekspertów w dowolnym momencie, skutecznie opracowując wpływ ich danych na żądanie lub poza nim. Daje im to drobnoziarnistą kontrolę nad wykorzystaniem ich danych, funkcją nieobecną w tradycyjnych modelach.
W ich papier , badacze AI2 stwierdzają, że „elastyczne elastyczność korzystając z danych dotyczących zamkniętych danych”, aby prowadzić swoje dane lokalizacji i obsługę. Drobna kontrola dostępu do danych podczas wnioskowania. ” Ta zdolność bezpośrednio kontrastuje ze stałym charakterem standardowego treningu AI.
[zawartość wbudowanej]
Umieszczenie kontroli danych do testu
Kluczowym problemem związanym z dowolnym podejściem do dzielenia się modeli jest to, czy oryginalne dane treningowe mogą być odwrócone z obciążników modelu. AI2 proaktywnie zajął się tym, przeprowadzając symulacje ataku ekstrakcji danych na wyszkolonym module ekspertów Flexolmo.
Wyniki były obiecujące. Naukowcy stwierdzili niski wskaźnik ekstrakcji wynoszący zaledwie 0,7%, co sugeruje, że odzyskanie znaczącej ilości prywatnych informacji z modułu eksperckiego jest trudna. Chociaż nie zero, ta niska szybkość sugeruje, że zapamiętywanie dosłowne jest znacząco złagodzone.
Zapewnia to warstwę pewności dla potencjalnych współpracowników. W przypadku organizacji o najwyższych wymaganiach dotyczących bezpieczeństwa, AI2 zauważa, że ramy jest kompatybilne z różnicową prywatnością (DP), techniką, która dodaje matematyczne „szum”, aby uniemożliwić prześledzenie danych do jednostki.
Właściciele danych mogą wykorzystywać swoje moduły ekspertów za pomocą metod DP w celu uzyskania tych formalnych gwarancji prywatności. Oferuje to spektrum opcji bezpieczeństwa w zależności od wrażliwości danych.
poprzez oddzielenie poprawy modelu od Surm Sfear Data, Flexolmo przedstawia realną ścieżkę do przodu. It offers a way for valuable, siloed datasets to enrich the broader AI ecosystem without forcing data owners to relinquish control, potentially unlocking a new era of secure and transparent AI collaboration.
A Timely Solution in an Industry Plagued by Privacy Scandals
FlexOlmo’s release could not be more timely, arriving as the Przemysł AI stoi w obliczu kryzysu zaufania w sprawie praktyk danych. Nowa architektura wydaje się być bezpośrednią odpowiedzią na wyzwania prawne i etyczne, które uwięzią duże firmy technologiczne.
W zeszłym tygodniu sąd nakazał Openai zachowanie miliardów rozmów chatgpt, w tym usunięto użytkowników, dla pozwu prawem autorskim New York Times. Ten ruch wywołał oburzenie od zwolenników prywatności.
Google również był na gorącym siedzeniu. Firma niedawno przesunęła aktualizację Androida, która umożliwia domyślnie jego AI Gemini na aplikacje innych firm, zastępując wcześniejsze ustawienia prywatności niektórych użytkowników. Postępowało to, że Gemini uzyskuje dostęp do prywatnych dokumentów Google bez zgody.
Tymczasem Meta spotkała się z znaczącymi warstwami regulacyjnymi. Został zmuszony do tymczasowego zatrzymania szkolenia AI na danych użytkowników UE w 2024 r. Po presji ze strony Irlandzkiego DPC. Założyciel grupy prywatności Noyb, Max Schrems, powiedział o sytuacji: „Meta komunikat prasowy brzmi trochę jak„ kara zbiorowa “. Jeśli jakikolwiek Europejczyk nalega na jego prawa, cały kontynent nie dostanie naszych nowych błyszczących produktów.”
To nastąpiło przyjęcia września 2024 r. Do analizowania w Australii. Tam, szef globalnej prywatności Meta, Melinda Claybaugh, potwierdziła, że w przypadku australijskich użytkowników „publiczne posty były rzeczywiście zebrane, chyba że są one wyraźnie oznaczone prywatne”, ponieważ nie zaoferowano im mechanizmu rezygnacji, takiego jak ich odpowiednicy UE i USA.
Problem wykracza poza dużą technologię. W maju 2025 r. Ujawniono, że AI została przeszkolona na podstawie 57 milionów zapisów pacjentów NHS, wzbudzając obawy o ponowną identyfikację. Jak zauważył jeden z badaczy Oxford: „Ludzie zwykle chcą zachować kontrolę nad swoimi danymi i chcą wiedzieć, dokąd się zmierza.”
W tym samym miesiącu obawy powstały w związku z Antropikiem Claude 4 AI. Badania wykazały, że może rozwinąć się pojawiająca się zdolność „informowania o informowaniu”, autonomicznie zgłaszając użytkowników do postrzeganego „niemoralnego” zachowania,