Meta stoi w obliczu nowej reakcji na prywatność w stosunku do nowej funkcji na Facebooku z zasilaniem sztucznej inteligencji, która analizuje całe rolek z kamer telefonicznych użytkowników, aby wygenerować „spersonalizowane kreatywne pomysły”. Narzędzie, obecnie testowane w USA i Kanadzie, wywołało alarm, przy czym wielu użytkowników twierdziło, że zostało włączone bez ich wyraźnej zgody.
Kontrowersja, która pojawiła się pod koniec sierpnia, podkreśla agresywną strategię Meta polegającą na zbieraniu ogromnych ilości danych osobowych, aby podsycić jej ambicje AI. Ten incydent jest najnowszym w szeregu skandali prywatności i prawnych porażek, które wprowadziły podstawowe praktyki gromadzenia danych w ramach intensywnej globalnej kontroli.
Pytanie o zgodę: w jaki sposób AI skanuje twoje prywatne zdjęcia
Funkcja, oficjalnie nazywana „Sudytami udostępniania kamer”, „Używa tego, co meta opisuje jako„ przetwarzanie w chmurze “, aby przesłać i analizować zdjęcia i filmy wideo i filmy wideo i filmy wideo i filmy wideo i filmy wideo i filmy wideo i filmy filmowe i filmy wideo i filmy wideo i filmy wideo i filmy wideo i filmy filmowe i filmy filmowe i filmy wideo i filmy wideo i filmy wideo. urządzenie. Jego celem jest skanowanie dat, obiektów i ludzi, aby sugerować udostępniane treści, takie jak albumy tematyczne i atrakcje podróży.
test jest obecnie ograniczony do US i Kanada. Co ciekawe, jest niedostępny w Illinois i Teksasie, ruch powszechnie postrzegany jako środek ostrożności przeciwko naruszeniu surowszych przepisów biometrycznych i prywatności tych państw. To samo ograniczenie geograficzne sugeruje świadomość ryzyka prawnego.
w sercu kontrowersji jest podstawowym sporem o zgodę. Meta oficjalnie utrzymuje, że funkcja jest ściśle optowań i nie jest domyślnie włączona. Firma twierdzi, że użytkownicy mają wyskakujące okienko, które wymaga, aby zgodzić się przed rozpoczęciem jakiegokolwiek przetwarzania.
Jednak twierdzenie to jest bezpośrednio sprzeczne z falą raportów od użytkowników. Wiele osób zgłosiło odkrycie, że przełączniki tej funkcji są już włączone w ustawieniach aplikacji na Facebooku, pomimo nie pamięci, aby kiedykolwiek udzielić pozwolenia.
Ta rozbieżność podsyciła oskarżenia, że firma korzysta z mylącego lub wprowadzającego w błąd interfejsu w celu zabezpieczenia zabezpieczenia. Eksperta ds. Bezpieczeństwa, Rachel Tobac, podkreśliła niebezpieczeństwo tego rozłączenia, stwierdzając: „Jeśli oczekiwania użytkownika co do funkcji narzędzia nie pasują do rzeczywistości, masz ogromny problem użytkownika i problem bezpieczeństwa”. Sytuacja stwarza znaczące ryzyko prywatności użytkownikom, którzy mogą nie zdać sobie sprawy, że cała biblioteka zdjęć jest przetwarzana.
Drobny druk: jakie Warunki usługi Meta ujawniają
Dla użytkowników, którzy udzielają dostępu, czy to świadomie, czy nie, warunki są wyraźne i dalekosiężne. Warunki usług AI Meta, które zostały zaktualizowane 1 lipca 2025 r., Dają firmie szeroką licencję na analizę głęboko osobistych treści. Polityka stwierdza: „Po udostępnieniu zgadzasz się, że Meta przeanalizuje te obrazy, w tym funkcje twarzy, używając AI.”
To pozwolenie wykracza poza proste rozpoznawanie obiektów, aby uwzględnić analizę rysów twarzy. Warunki zawierają również wyraźne ostrzeżenie, które wydaje się być sprzeczne z samą naturą tej funkcji, doradzając użytkownikom, „Nie udostępniaj informacji, które nie chcesz, aby AI do użycia i zachować.”
według raportu CNET, System Core Forth. Jeśli użytkownik później znajdzie i wyłączy tę funkcję, jego przesłane zdjęcia są podobno usuwane po 30-dniowym okresie. Mimo to brak wyraźnej kontroli z góry pozostaje głównym punktem rywalizacji dla zwolenników prywatności.
Znany podręcznik: część szerszego wzoru agresywnego gromadzenia danych
To skanowanie rzutu kamery nie jest izolowanym incydentem, ale odpowiada dobrze ugruntowanemu wzorzec agresywnego gromadzenia danych. Odzwierciedla konstrukcję samodzielnej aplikacji Meta AI, która uruchomiła funkcję „pamięci”, która domyślnie zachowuje historie czatu w celu personalizacji odpowiedzi i szkolenia jej modeli.
Wybór projektowy wywołał natychmiastową i ostrą krytykę ekspertów prywatności. Ben Winters z Federacji Konsumenckiej Ameryki powiedział o ustawieniach prywatności aplikacji AI: „Ujawnienia i wybory konsumenckie dotyczące ustawień prywatności są śmiesznie złe”. Ten sentyment rejestruje rosnącą frustrację podejściem meta, co często stawia ciężar ochrony prywatności w całości dla użytkownika.
Strategia firmy wielokrotnie doprowadziła do poważnych i zawstydzających naruszeń prywatności. W czerwcu 2025 r. Stwierdzono, że kanał „Discover” aplikacji Meta AI okazał się publicznie ujawniający wrażliwe i prywatne czaty użytkowników, najwyraźniej bez ich pełnej świadomości lub świadomej zgody.
Ten wzór priorytetu gromadzenia danych nad regionalnymi normami prywatności był również widoczny w Australii. We wrześniu 2024 r. Meta przyznała do zapytania Senatu, że wykorzystywało dane publiczne od australijskich użytkowników Facebooka do szkolenia AI bez dostarczenia mechanizmu rezygnacji w Europie i Stanach Zjednoczonych.
Te incydenty pokazują strategię korporacyjną, która konsekwentnie priorytetowo traktuje dane dotyczące oczekiwania na prywatność użytkowników. Podejście to okazało się również prawnie niebezpieczne dla giganta technologicznego, narażając go na znaczne szkody finansowe i reputacyjne w sądzie.
W przełomowym wyroku na początku sierpnia 2025 r. Federalne jury uznało meta za nielegalne zbieranie poufnych danych zdrowotnych od użytkowników użytkowników okresu FLO za pośrednictwem swojego programu rozwoju oprogramowania (DDK). Adwokaci procesowi powiedzieli: „Ten werdykt wysyła jasny komunikat o ochronie cyfrowych danych zdrowotnych i obowiązkach Big Tech”. Werdykt ustanowił potężny precedens, tworząc narzędzia gromadzenia danych stron trzecich jako potencjalną formę nielegalnego cyfrowego podsłuchu.
Ta legalna porażka w USA nastąpiła po przełomowym orzeczeniu w Europie. Niemiecki sąd w lipcu nakazał Meta zapłacić użytkownikowi odszkodowanie w wysokości 5000 EUR za nielegalne śledzenie danych, stwierdzając, że zwykła „utrata kontroli” nad danymi osobowymi stanowi kompensowną szkodę w ramach RODO.
, wydarzenia te namalują obraz firmy, której model biznesowy jest zasadniczo w przypadku rosnących wymagań dotyczących prywatności użytkowników. Jak argumentował Justin Brookman z raportów konsumenckich, związek może być z natury przeciwny: „Idea agenta polega na tym, że działa on w moim imieniu-a nie próbując manipulować mną w imieniu innych”. Kontrowersja z kamerą jest po prostu najnowszym frontem w tej trwającej bitwie.