Samodzielna aplikacja Meta AI rozpaliła ogień krytyki, tworząc to, co wielu nazywa katastrofą prywatności, publicznie nadawając pozornie prywatne i często głęboko osobiste rozmowy użytkowników, aby każdy mógł zobaczyć. Kanał „Odkryj” aplikacji, przeznaczony jako funkcja społeczna, zamiast tego ujawnia ciągły strumień wrażliwych pytań użytkowników na wszystko, od kłopotów prawnych po dolegliwości medyczne, w fiasku, które jeden pisarz opisany jako „początek filmu Horror z XXI wieku: Twoja historia przeglądarki była publiczna na zawsze, a ty nie miałeś pojęcia.” interakcje. Jednak potok publicznie widocznych postów sugeruje, że wielu całkowicie nieświadomych publikuje swoje prywatne myśli. Jak donosi przewodowe , te wspólne czaty obejmują 66-letniego mężczyznę pytającego hrabstwa [sic] młodsze kobiety, takie jak starsze białe mężczyzny,”publicznie ujawniając jego wiek i chęć przeniesienia. Meta twierdzi, że czaty są domyślnie prywatne i stają się publiczne dopiero po tym, jak użytkownicy ukończyli wieloetapowy proces udostępniania, kanał publiczny jest pełen dowodów na zamieszanie użytkownika. Eksperci ds. Prywatności odkryli sytuację „niewiarygodnie niepokojącą”, wyjaśniając, że ujawnia ona podstawowe nieporozumienie publiczne na temat działania nowoczesnych systemów AI i prywatności danych. Ten wybór projektu stworzył koszmar prywatności, w którym nazwiska użytkowników i zdjęcia profilowe są dołączone do ich najbardziej wrażliwych zapytań.

Podstawą problemu polega na kanale „odkryj” aplikacji „Odkryj”. Po uruchomieniu aplikacji, wiceprezes ds. Produktu Meta, Connor Hayes, powiedział, że kanał miało na celu „demistyfikację AI”, pokazując, co może zrobić. W praktyce stała się publiczną księgą prywatnych momentów, przyciągając porównania z niesławnym przeciek danych AOL z 2006 r. href=”https://www.nytimes.com/2006/08/09/technology/a-face-is-exposed-for-aol-searcher-no-4417749.html?partner=slack&smid=sl-hare”target

Przykłady niezamierzonego nadmiernego podziału są obszerne. Eksperta ds. Bezpieczeństwa Rachel Tobac znalezione instancje Użytkownicy dzielących adresy domowe i wrażliwe są szczegóły sądu, podczas gdy inne widoczne zapytania obejmują użytkowników o pomocy o pomocy w ocielności Rentera.

. Oczekiwania co do tego, jak funkcje narzędzia nie pasują do rzeczywistości, masz ogromny problem użytkownika i problem bezpieczeństwa.
Humans have built a schema around AI chat bots and do not expect their AI chat bot prompts to show up in a social media style Discover feed —… https://t.co/CJ41THUXCE

— Rachel Tobac (@Racheltobac)

Reakcja zwolenników prywatności została szybka. Fundacja Mozilla ma formalnie żądane że meta zamykała się „odkryj”, aż do właściwej ochrony można było wdrożyć, co nazywając, aby wszystkie interakcje do defiltów. Problem stał się tak oczywisty, że niektórzy użytkownicy zaczęli trollować platformę, prosząc, jak zrobić bong butelki lub udostępniając swoje CV, aby poprosić o zadania cyberbezpieczeństwa.

Silnik danych: pamięć, szkolenie i przyszłe reklamy

poza kwestiami publicznej wynikającej z publicznego kanału. obawy. Funkcja „pamięci” aplikacji jest domyślnie włączona, automatycznie analizowanie i przechowywanie faktów od rozmów użytkowników do personalizacji przyszłych odpowiedzi. Warunki usług meta Ostrzega użytkowników: „Nie udostępniaj informacji, których nie chcesz, aby AIS używał i zatrzymywał.”

Według Waszyngton Post że ujawnienia i zasady dotyczące prywatności i prywatności są śmieszne. w Europie. Max Schrems, przewodniczący NOYB, podkreślił precedens prawny, zauważając, że Europejski Trybunał Sprawiedliwości odrzucił już „uzasadnione interes” Roszczenia o reklamie. Następnie zadał krytyczne pytanie: „Jak powinno to mieć„ uzasadniony interes “, aby zasysać wszystkie dane do szkolenia AI? Agresywne pchanie produktów AI

, pomimo ich widocznych wad, ma miejsce na tle ogromnej presji wewnętrznej i strategicznej pilności. Firma dokonuje kolosalnych inwestycji, aby nadrobić zaległości w wyścigu zbrojeń AI, wyróżniona ostatnią transakcją o wartości 14 miliardów dolarów na 49% udziałów w firmie Scaling Scale AI. Umowa instaluje założyciel Scale AI, Alexandr Wang, na czele nowego laboratorium „Superinteligence” w Meta.

Ten ruch jest postrzegany przez analityków jako masiveSiveS „Acqui-hire” Zaprojektowany w celu ominięcia wewnętrznych wąskich wąskich gardeł po poważnym drenażu talentów większość oryginalnego zespołu badawczego LLAMA wyjechał do konkurentów. Inwestycja następuje po znacznych opóźnień w opracowaniu modelu AI nowej generacji Meta. Struktura umowy, 49% udziałów, a nie pełne przejęcie, jest również postrzegana przez niektórych jako strategiczny manewr, aby uniknąć dalszej kontroli antymonopolowej ze strony organów regulacyjnych.

Partnerstwo również doprowadza meta do bliższego dostosowania się do kontrowersyjnej i obszernej pracy Scale AI. Założyciel Scale AI był wokalnym zwolennikiem tej pracy, argumentując w niedawnym OP-ED, że „nie ma miejsca na neutralność w globalnym wyścigu technologicznym”.

To połączenie giganta technologicznego konsumenckiego z mocno głęboko osadzonym w zakresie modelek AI dodaje kolejną warstwę etycznej złożoności złożoności do Meta AI, która jest już zacieniona przez jej modele, które były trenowane w Pitrated. Książki.

Ostatecznie kryzys prywatności aplikacji Meta AI nie jest odosobnionym incydentem, ale bezpośrednią konsekwencją szerszej strategii firmy. W wyścigu o wysokich stawkach o budowie dominującego, wszechstronnego ekosystemu sztucznej inteligencji, Meta porusza się w odwróconym tempie, napędzanym ogromnymi inwestycjami i żarłocznym apetytem na dane użytkownika. Wadliwy kanał „Discover” pokazuje, że w tym sprincie dla supremacji sztucznej inteligencji prywatność użytkowników stała się akceptowalną ofiarą, zmuszając trudny kompromis dla konsumentów i zachęcając do nieuniknionych starć z organami regulacyjnymi na całym świecie.

Categories: IT Info