Anthropic aktualizuje swoją politykę prywatności, co czyni go najnowszym głównym programistą sztucznej inteligencji, który domyślnie wykorzystuje dane czatu konsumenckiego. Rozpoczynając od razu dla nowych użytkowników i aplikując do istniejących użytkowników, którzy nie rezygnują do 28 września, firma zachowa i przeanalizuje rozmowy z usług AI Claude w celu ulepszenia przyszłych modeli.

Ta zmiana jest zgodna z konkurentami, takimi jak Google i Meta, którzy mają podobne zasady rezygnacji. Ten ruch intensyfikuje trwającą debatę na temat prywatności użytkowników i kontroli danych w wyścigu o mocniejsze sztuczna inteligencja, powodując obciążenie osób fizycznych w celu aktywnego zarządzania sposobem wykorzystywania ich danych osobowych.

antropijne przyjmuje zasady szkolenia danych, chyba że rozwijają zasady szkolenia danych

Pod nowymi warunkami, dane od użytkowników Claude, Pro i Maks. href=”https://www.antropic.com/news/updates-to-our-consumer-terms”target=”_ blank”> wyraźnie zrezygnuj . Dla tych, którzy wyrażają zgodę, antropiczny znacznie rozszerza okres zatrzymywania danych, od poprzednich 30 dni do pięciu lat.

anpicicies Wyjaśnienie, że dane z rzeczywistego interakcji zapewnia kluczowe informacje, w których odpowiedzi są najbardziej przydatne i dokładne. Na przykład kod debugowania programistów z Claude oferuje cenne sygnały, które poprawiają przyszłe wyniki modelu w podobnych zadaniach.

Przejście w całym branży w kierunku domyślnego gromadzenia danych

Zmiana polityki antropika nie następuje w próżni. Odzwierciedla szerszy trend branżowy, w którym domyślne gromadzenie danych stało się normą dla produktów AI skierowanych do konsumentów. Google niedawno ogłosił podobną zasadę rezygnacji dla Gemini, która ma się obowiązywać 2 września.

Polityka ta jest podobnie szeroka, obejmująca pliki, zdjęcia, zdjęcia, filmy, a nawet z boki zdziwienia, które użytkownicy zadają pytania. Podobnie, aplikacja Meta AI, uruchomiona w kwietniu 2025 r., Domyślnie pamięta czaty użytkowników w celu personalizacji odpowiedzi i stwierdzono, że przechwytywając wrażliwe szczegóły wywodzące się z czatów.

Ta konwergencja strategii wśród dużych technologii podkreśla niezrozumiałą wartość rzeczywistego użytkownika w wyścigu konkurencyjnym w celu zbudowania bardziej zdolnych i kontekstowych. oraz precedensów prawnych Mount

Pivot w całym branży spotkał się ze znaczącym oporem ze strony zwolenników prywatności i wywołało wyzwania prawne. Krytycy twierdzą, że te systemy rezygnacji mają na celu zniechęcenie użytkowników przed ochroną ich danych. Ben Winters z Federacji Konsumenckiej Ameryki nazwał takie ujawnienia i wybory „ujawnienia i wybory konsumenckie wokół ustawień prywatności są śmiesznie złe.”

Krajobraz prawny staje się również bardziej niebezpieczny dla firm technologicznych. W styczniu 2025 r. Złożył pozew zbiorowy przeciwko LinkedIn, oskarżając go o korzystanie z prywatnych wiadomości inmailowych od subskrybentów premium do szkolenia modeli AI, rzekomo naruszając ustawę o przechowywanej komunikacji.

Dalsze komplikując sprawy, w lipcu sąd nakazał Openai w lipcu. Ten rządzący zaniepokojony eksperci ds. Prywatności, tacy jak Jay Edelson, który ostrzegł: „Pomysł, że masz grupę prawników, którzy będą robić wszystko, co z których są najbardziej poufne dane na planecie… powinni sprawić, że wszyscy są niezadowoleni.”

Sprawy podkreślają rosnące napięcie między danymi branży technologicznej dla danych a jego prawnymi i etycznymi obowiązkami użytkowników. Wielu uważa, że ​​równowaga jest wyłączona, a Justin Brookman z raportów konsumenckich zauważa: „Pomysł agenta polega na tym, że działa on w moim imieniu-a nie próbując manipulować mną w imieniu innych.”

Jasne podział: surowsza prywatność dla użytkowników korporacyjnych

Kluczowe szczegóły, które instrukcje polityczne są Ćwiczeniem między konsumentami i uczestnikami. Antropic wyraźnie podaje swoją nową politykę rezygnacji nie ma zastosowania do swoich ofert komercyjnych , w tym Claude do pracy, Gov, Education lub jego klientów API.

To Distoltion jest powszechne w całej branży. Firmy oferują silniejsze gwarancje prywatności i segregację danych płacącym klientom biznesowym, którzy zajmują się poufnymi informacjami korporacyjnymi i wymagają surowszych kontroli. Tworzy to dwupoziomowy system, w którym codzienni użytkownicy są traktowani jako zasób szkolenia modelu.

Ponieważ AI staje się bardziej zintegrowane z codziennym życiem, podział ten prawdopodobnie podsyci dalszą debatę nad uczciwością i zgodą. Jak zauważyła jedna badacz z University of Oxford, Caroline Green: „Istnieje problem, jeśli chodzi o rozwój AI, w którym etyka i ludzie są drugie, a nie punktem wyjścia.”

Meta rzecznik Thomas Richards, stwierdzając, że „stwierdzamy, że„ zapewniliśmy cenne osobom osobom na naszych platformach i rozstrzygamy przez całą kontrolę i kontrolę nad jego doświadczeniem i uzasadnionymi przez swoją firmę, uzasadnionymi przez całą kontrolę, jaką jest to doświadczenie i uznać za swoje doświadczenie i uznać za swoje doświadczenie i uzasadniały kontrolę, jaką jest. Jest to dla nich odpowiednie „ale dla wielu ustawienia domyślne opowiadają inną historię.

Categories: IT Info