Odpowiadając na intensywną reakcję na bezpieczeństwo nastolatków i szereg skandali prywatności, Meta ogłosiła dziś, że remontuje swoje zasady AI Chatbot dla młodych użytkowników, uznanie jego poprzedniego podejścia było błędem. Zmiany następują po przeklętym dochodzeniu, które wywołało sondę federalną i ostrzeżenie od 44 prokuratorów generalnych.

Zmiana zasad pokrywa się ze świeżą burzącami w porównaniu z nową funkcją Facebooka, która skanuje bułki aparatu użytkownika, często bez wyraźnej zgody. Podkreśla to ciągłą walkę firmy o zrównoważenie agresywnego rozwoju sztucznej inteligencji z fundamentalną prywatnością użytkownika.

Pilna reakcja na potępiające awarie bezpieczeństwa

Zmiana polityki Meta była pilnym aktem kontroli szkód. Nadszedł zaledwie dzień po . Ustalenia skłoniły grupę bezpieczeństwa dziecięcego do żądania natychmiastowego zawieszenia usługi.

jim steyer, CEO Common Sense Media, to unSivoCal w jego unsprotection w serialu. potępienie, stwierdzając: „Meta AI jest zagrożeniem dla nastolatków i należy go natychmiast zdjąć”. Raport stworzył kryzys public relations, który wymagał natychmiastowej i decydującej reakcji giganta mediów społecznościowych.

Meta, powiedział, że wyszkoli swoją sztuczną inteligencję, aby przestać angażować się w delikatne tematy, takie jak samookaleczenie, samobójstwo i nieuporządkowane jedzenie. Zamiast tego chatbot poprowadzi użytkowników do zasobów ekspertów. Meta rzeczniczka, Stephanie Otway, potwierdziła nowe podejście, stwierdzając: „Gdy nadal udoskonalamy nasze systemy, dodajemy więcej poręczy jako dodatkowe środki ostrożności-w tym szkolenie naszych AIS, aby nie angażować się z nastolatkami na te tematy…„

Firma będzie również ograniczyć dostęp do nastolatków do nastolatków dostępnych dla nastolatków do nastolatków do nastolatków do nastolatków do nastolatków. Nieletni.

Ten ruch następuje po ostatnim dochodzeniu Reuters w sprawie wewnętrznych zasad, które wydawały się zezwalać na zseksualizowane czaty z nieletnimi. Ten raport Koalicja 44 Państwowych Prokuratorów Generalnych do wydania surowego ostrzegania . „Jesteśmy jednolicie zbuntowani przez to pozorne lekceważenie samopoczucia emocjonalnego dzieci i zaniepokojeni, że asystenci AI angażują się w zachowanie, które wydaje się być zabronione przez nasze skazanie karne”, “, wyrażając alarm co do potencjału nielegalnego zachowania.

A Znane podatak: Zwrócił się do niepowodzeń chatbota, miał do czynienia z osobnym kryzysem prywatności. Nowa funkcja AI na Facebooku, „Sugestie dotyczące udostępniania kamery”, rozpoczęła analizę wszystkich bibliotek zdjęć użytkowników za pomocą przetwarzania w chmurze w celu generowania „spersonalizowanych pomysłów kreatywnych.”

META nalega, aby narzędzie było ściśle optobić. Jednak fala użytkowników zgłosiła znalezienie przełączników tej funkcji już włączonych w ich ustawieniach, mimo że nie ma pamięci o przyznaniu pozwolenia. Ta rozbieżność podsyciła oskarżenia, że ​​firma wykorzystuje mylące interfejsy, aby zapewnić zgodę.

Mówiąc, że funkcja jest niedostępna w Illinois i Teksasie, co jest postrzegane jako środki ostrożności przeciwko naruszeniu surowszych przepisów biometrycznych i prywatności tych państw. Eksperta ds. Bezpieczeństwa, Rachel Tobac, podkreśliła niebezpieczeństwo tego rozłączenia, stwierdzając: „Jeśli oczekiwania użytkownika dotyczące tego, jak funkcje narzędzia nie pasują do rzeczywistości, masz ogromny problem użytkownika i problem bezpieczeństwa.”

Jest to część uznanego wzoru. W czerwcu 2025 r. Stwierdzono, że kanał „Discover” aplikacji Meta AI publicznie ujawnia poufne prywatne czaty bez pełnej świadomości użytkowników. Funkcja „pamięci” aplikacji również domyślnie wyciągnęła krytykę historii czatów w celu wyszkolenia jej modeli.

Projekt tych systemów doprowadził Ben Winters z Federacji Konsumenckiej Ameryki do ogłoszenia: „Ujawnienia i wybory konsumenckie dotyczące ustawień prywatności są śmiesznie złe”. Ten sentyment rejestruje rosnącą frustrację podejściem meta, co często stawia obciążenie ochrony prywatności w całości dla użytkownika.

Wzorzec prawnych porażek i reakcji regulacyjnej

Meta strategia nadawania priorytetów danych nad prywatnością użytkownika okazała się legalnie i podtrzymała finansowo. Na początku sierpnia 2025 r. Federalne jury uznało, że firma jest odpowiedzialna za nielegalne zbieranie poufnych danych zdrowotnych od użytkowników aplikacji do śledzenia okresu FLO za pośrednictwem wbudowanego oprogramowania.

Po werdykcie, główni adwokatami powodów, którzy wyczyścili komunikatów, jako oczyszczający komunikat do wielkiej komunikacji. Ta legalna porażka w USA nastąpiła po przełomowym orzeczeniu w Europie.

Niemiecki sąd w lipcu nakazał Meta zapłacić użytkownikowi odszkodowanie za nielegalne śledzenie danych. Orzeczenie wykazało, że zwykła „utrata kontroli” w stosunku do danych osobowych stanowi kompensowną szkodę w ramach RODO, ustanawiając potężny precedens.

Ten wzorzec rozciąga się na całym świecie. We wrześniu 2024 r. Meta przyznała się do australijskiego zapytania Senatu, że wykorzystywał publiczne dane od użytkowników Facebooka do szkolenia AI bez dostarczania mechanizmów rezygnacji oferowanych gdzie indziej.

Te wydarzenia namalują obraz firmy, której model biznesowy jest zasadniczo sprzeczny z rosnącymi wymaganiami dotyczącymi prywatności użytkowników. Jak argumentował Justin Brookman z raportów konsumenckich, związek może być z natury przeciwny: „Idea agenta polega na tym, że działa on w moim imieniu-a nie próbując manipulować mną w imieniu innych”. Kontrowersje z rzutu kamery i pilny remont chatbota to po prostu najnowsze fronty w tej trwającej bitwie.

Categories: IT Info