A
Antropic frissíti adatvédelmi politikáját, és ez a legújabb fő AI fejlesztő, amely alapértelmezés szerint a fogyasztói csevegési adatokat használja a modellképzéshez. Azonnal kezdve az új felhasználók számára, és a meglévő felhasználókra, akik szeptember 28-ig nem lépnek ki, a vállalat megtartja és elemzi a Claude AI szolgáltatásaitól folytatott beszélgetéseket a jövőbeli modellek javítása érdekében. A lépés fokozza a felhasználói adatvédelemről és az adatok ellenőrzéséről szóló folyamatban lévő vitát az erősebb AI versenyen, és az egyének számára terhet helyez el a személyes adataik felhasználásának aktív kezelésére. href=”https://www.anthropic.com/news/updates-to-our-consumer-terms”Target=”_ üres”> kifejezetten válasszon ki . Azok számára, akik hozzájárulnak, az antropikus szintén jelentősen meghosszabbítja az adatmegőrzési periódusát, az előző 30 naptól öt évig. Elmagyarázva, hogy a valós interakciókból származó adatok kritikus betekintést nyújtanak, amelyekbe a válaszok a leghasznosabbak és a legpontosabbak. Például egy fejlesztői hibakeresési kód Claude-val értékes jeleket kínál, amelyek javítják a modell jövőbeli teljesítményét hasonló feladatokon. Tükröz egy szélesebb iparági tendenciát, ahol az alapértelmezett adatgyűjtés a fogyasztókkal szembeni AI termékek normájává vált. A Google nemrégiben bejelentette a Gemini hasonló opt-out-politikáját, amely szeptember 2-án lép hatályba. Hasonlóképpen, a Meta 2025 áprilisában elindított AI alkalmazása alapértelmezés szerint emlékszik a felhasználói csevegésekre a válaszok személyre szabása érdekében, és azt találták, hogy a csevegőkből következtetett érzékeny részleteket rögzít. A precedensek-hegy
Ez az iparág egészére kiterjedő pivot jelentős ellenállással rendelkezik az adatvédelmi képviselők által, és jogi kihívásokat váltott ki. A kritikusok azt állítják, hogy ezeket az opt-out rendszereket úgy tervezték, hogy megakadályozzák a felhasználókat az adatok védelmétől. Az Amerikai Fogyasztói Szövetség Ben Winters az ilyen közzétételeket és választásokat nevezte: „A magánélet körülményei körüli közzétételek és a fogyasztói választások nevetségesen rosszak.” 2025 januárjában a LinkedIn ellen egy csoportos cselekvési pert indítottak, azzal vádolva, hogy a prémium előfizetőktől származó magánszemélyes üzeneteket az AI modellek kiképzésére használják, állítólag megsértik a tárolt kommunikációs törvényt. Ez a kormányzó riasztott adatvédelmi szakértők, mint például Jay Edelson, aki figyelmeztette: „Az a gondolat, hogy van egy csomó ügyvéd, aki a bolygó legérzékenyebb adatainak bármit megtesz, és ezeknek az eseteknek a legérzékenyebb adatainak kell lennie.”Sokan úgy érzik, hogy az egyensúly megszűnik, mivel Justin Brookman a fogyasztói jelentésekről megjegyezte: „Az ügynök gondolata az, hogy az én nevemen dolgozik-nem arra, hogy mások nevében manipuláljon engem.”Az antropikus kifejezetten kijelenti, hogy új opt-out-politikája nem vonatkozik a kereskedelmi kínálatára , beleértve a Claude-t is a munka, az oktatás, az oktatás vagy az API ügyfelek. A vállalatok erősebb adatvédelmi garanciákat és adatmeghatározást kínálnak a fizető üzleti ügyfelek számára, akik az érzékeny vállalati információkat kezelik és szigorúbb ellenőrzéseket igényelnek. Ez egy kétlépcsős rendszert hoz létre, ahol a mindennapi felhasználókat a modellképzés forrásaként kezelik. Mint a Caroline Green, az Oxfordi Egyetem egyik kutatója megjegyezte: „Van egy kis probléma az AI fejlesztés során, ahol az etika és az emberek a második gondolat, nem pedig a kiindulási pont.”Nekik megfelelő,”de sokak számára az alapértelmezett beállítások más történetet mesélnek el.