Antropic po azhurnon politikën e tij të privatësisë, duke e bërë atë zhvilluesin më të fundit të madh të AI për të përdorur të dhënat e bisedës së konsumatorit për trajnimin e modelit si parazgjedhje. Duke filluar menjëherë për përdoruesit e rinj dhe duke aplikuar për përdoruesit ekzistues që nuk e heqin dorë deri më 28 shtator, kompania do të ruajë dhe analizojë bisedat nga shërbimet e saj Claude AI për të përmirësuar modelet e ardhshme. Masa intensifikon debatin e vazhdueshëm mbi privatësinë e përdoruesit dhe kontrollin e të dhënave në garë për AI më të fuqishme, duke vendosur barrën ndaj individëve për të menaxhuar në mënyrë aktive informacionin e tyre personal. href=”https://www.anthropic.com/news/updates-to-our-consumer-terms”target=”_ bosh”> në mënyrë të qartë hiqni dorë nga . Për ata që pranojnë, Antropik gjithashtu po zgjat në mënyrë të konsiderueshme periudhën e mbajtjes së të dhënave, nga 30 ditët e mëparshme deri në pesë vjet. Masa duke shpjeguar se të dhënat nga ndërveprimet në botën reale sigurojnë njohuri thelbësore në të cilat përgjigjet janë më të dobishme dhe të sakta. Për shembull, një kod i debugimit të një zhvilluesi me Claude ofron sinjale të vlefshme që përmirësojnë performancën e ardhshme të modelit në detyra të ngjashme. Pasqyron një prirje më të gjerë të industrisë, ku mbledhja e paracaktuar e të dhënave është bërë normë për produktet AI me fytyrën e konsumatorit. Google kohët e fundit njoftoi një politikë të ngjashme zgjedhjeje për Gemini, e vendosur të hyjë në fuqi më 2 shtator. Po kështu, aplikacioni AI i Meta, i lançuar në Prill 2025, gjithashtu kujton bisedat e përdoruesve si parazgjedhje për të personalizuar përgjigjet dhe u gjet për të kapur detaje të ndjeshme të konstatuara nga bisedat. Precedentët montojnë
Ky strumbullar i gjerë në industri është përmbushur me rezistencë të konsiderueshme nga avokatët e intimitetit dhe ka shkaktuar sfida ligjore. Kritikët argumentojnë se këto sisteme opt-out janë krijuar për të dekurajuar përdoruesit të mbrojnë të dhënat e tyre. Ben Winters i Federatës së Konsumatorëve të Amerikës i quajti zbulime dhe zgjedhje të tilla”Shpalosjet dhe zgjedhjet e konsumatorëve rreth ambienteve të intimitetit janë qesharake të këqija.”
Peizazhi ligjor po bëhet gjithashtu më i rrezikshëm për kompanitë e teknologjisë. Në janar 2025, një padi e veprimit të klasës u ngrit kundër LinkedIn, duke e akuzuar atë për përdorimin e mesazheve private të InMail nga pajtimtarët premium për të trajnuar modele të AI, gjoja duke shkelur Aktin e Komunikimeve të Ruajtura. Ky vendim alarmoi ekspertë të intimitetit si Jay Edelson, i cili paralajmëroi,”Ideja që ju keni një mori avokatësh që do të bëjnë gjithçka që janë me disa nga të dhënat më të ndjeshme në planetin… duhet t’i bëjë të gjithë të shqetësuar.”Shumë mendojnë se ekuilibri është i fikur, me raportet e Justin Brookman të Konsumatorit duke përmendur,”Ideja e një agjenti është se po punon në emrin tim-jo duke u përpjekur të manipuloj mua në emër të të tjerëve.”Antropik shprehet në mënyrë të qartë politikën e saj të re të zgjedhjes , përfshirë Claude për punë, GoV, ose klientët e saj API. Kompanitë po ofrojnë garanci më të forta të intimitetit dhe ndarje të të dhënave për të paguar klientët e biznesit, të cilët trajtojnë informacione të ndjeshme të korporatave dhe kërkojnë kontrolle më të rrepta. Kjo krijon një sistem me dy nivele ku përdoruesit e përditshëm trajtohen si një burim për trajnimin e modelit. Ndërsa një studiues nga Universiteti i Oksfordit, Caroline Green, vuri në dukje,”Ka pak problem kur bëhet fjalë për zhvillimin e AI, ku etika dhe njerëzit janë një mendim i dytë, në vend se pikënisja.”Drejt për ta,”Por për shumë njerëz, cilësimet e paracaktuara tregojnë një histori të ndryshme.