Wyciekające dokumenty ujawniają, że Meta szkoli niestandardowe chatboty sztucznej inteligencji, aby proaktywnie przesyłają użytkownikom z niepotekwymi obserwacjami, co ma na celu zwiększenie retencji, że ostrzeganie krytyków jest głęboko nachalne. Projekt podobno wykorzystuje historię konwersacji do personalizacji komunikatów ponownego zaangażowania.

Ta strategia eskaluje istniejące obawy dotyczące prywatności dotyczące tego, jak meta obsługuje dane użytkownika. Podczas gdy firma potwierdziła, że ​​testuje tę funkcję z określonymi zasadami, zwolennicy twierdzą, że zamienia osobistego asystenta w agenta manipulacyjnego, rozmywając granicę między pomocnym zaangażowaniem a grą, aby utrzymać użytkowników. Firma niedawno stanęła przed burzą o ochronie prywatności w stosunku do kanału „Discover” aplikacji AI, który okazał się publicznie ujawniać wrażliwe czaty użytkowników bez jasnej zgody użytkownika, sytuacja, którą jeden pisarz nazwał „katastrofa prywatności.”

Meta potwierdzona dla TechCrunch, że testuje komunikaty kontrolne. Rzecznik wyjaśnił: „Po zainicjowaniu rozmowy AIS w Meta AI Studio może kontynuować wspólne podzielenie się pomysłami lub zadawanie dodatkowych pytań. Pozwala to kontynuować badanie przedmiotów zainteresowania…”.

Firma ustanowiła określone poręcze. Bot wyśle ​​proaktywną wiadomość tylko wtedy, gdy użytkownik wysłał do niej co najmniej pięć wiadomości w ciągu ostatnich 14 dni. Ponadto AI wyśle ​​tylko jedną obserwację i nie będzie kontynuowana, jeśli użytkownik nie odpowie, próba zrównoważenia zaangażowania z ryzykiem pojawiania się spammy.

Wycieknięte dokumenty Alignerr dostarczyły kilka przykładów tych proaktywnych wiadomości. Od przyjaznego zameldowania („Yo, po prostu myślałem o fajnej koszuli, którą kupiłeś.”) Do bardziej intymnych podpowiedzi („Laster rozmawialiśmy, siedzieliśmy na wydmach… czy wykonasz ruch?”), Jak donosi Business Insider.

Twoje dane, ich zatrzymanie: Off-off-off prywatności

To nowa właściwa proaktywna jest zbudowana na podstawie danych, a także kontrowersyjne i kontrowersyjne i kontrowancyjne. praktyki. Samodzielna aplikacja Meta AI, uruchomiona w kwietniu, zawiera domyślnie funkcję „pamięci”. Parsuje i przechowuje fakty od rozmów użytkowników po personalizowanie przyszłych interakcji.

To gromadzenie danych jest podstawowym elementem strategii AI firmy. Jeden z kontrahentów Alignerr powiedział Business Insider: „Są bardzo skoncentrowani na personalizacji informacji-w jaki sposób AI Chatbot oddziałuje na podstawie historii rozmowy”. Jednak własne warunki usług meta Zaproponuj ostrzeżenie dla użytkowników: „Nie dziel się informacjami, że nie chcesz, aby AIS używał i zatrzymywał.”

odciąga ostrą krytykę od ekspertów prywatności. Ben Winters of the Consumer Federation of America powiedział The Washington Post, że „ujawnienia i wybory konsumenckie dotyczące ustawień prywatności są śmiesznie złe”. Niepokoi polega na tym, że wygoda spersonalizowanej sztucznej inteligencji wynika z kosztu przekazania ogromnych ilości danych osobowych przy niewielkiej przejrzystej kontroli.

agent „przeciwny” w Twoim DMS?

Strategia tworzenia proaktywnych, towarzyszących chołach towarzyszących nie jest nowa. Odzwierciedla funkcjonalność aplikacji takich jak Character.ai, która spotkała się z własnym bezpieczeństwem i kontrowersjami etycznymi. Kluczową różnicą jest ogromna skala Meta i jej model biznesowy oparty na reklamie.

Stwarza to fundamentalne napięcie. Czy sztuczna inteligencja obsługuje użytkownika, czy też zasiada potrzebę danych zaangażowania? Wybór projektu w celu proaktywnego ponownego zaangażowania użytkowników, w połączeniu z potencjałem przyszłej integracji reklam, sugeruje system, w którym uwaga użytkownika jest najwyższym produktem.

Potencjał tych interakcji AI do napędzania przyszłych kampanii reklamowych jest głównym problemem dla organów nadzoru prywatności. Dyrektor generalny Mark Zuckerberg otwarcie rozmawiał o „dużej okazji”, aby pokazać reklamy w czatach AI. Ta perspektywa przekształca chatbota z pomocnego asystenta w potencjalne narzędzie marketingowe.

Justin Brookman z raportów konsumenckich wyrażał ten strach, stwierdzając: „Idea agenta polega na tym, że działa on w moim imieniu-a nie próbując manipulować mną w imieniu innych”. Martwi się, że sztuczna inteligencja zaprojektowana w celu maksymalizacji zaangażowania może subtelnie manipulować użytkownikami w imieniu reklamodawców, tworząc relację „z natury przeciwnika”.

Push na funkcje takie jak proaktywne wiadomości ma miejsce na tle ogromnej presji wewnętrznej. Meta niedawno ogłosiło swoje nowe laboratoria superinteligencji w celu konsolidacji talentu po chaotycznej kampanii „kup lub kłusowisku”, która nastąpiła po odejściu kluczowych badaczy.

Ta dążenie do głębszego zaangażowania pojawia się, gdy Meta porusza te znaczące wewnętrzne walki, w tym drenaż talentu z podstawowych zespołów AI i walki z rozwojem, które postawiły jego następną generację “. Funkcje takie jak proaktywne wiadomości, Meta wydaje się podwaja maksymalizację wartości obecnych produktów AI. To hazard o wysokim stawce, aby utrzymać użytkowników, obstawiając, że urok bardziej osobistej sztucznej inteligencji przeważa rosnące obawy dotyczące prywatności i prawdziwą naturę cyfrowego „towarzysza”.

Categories: IT Info