Ang

Anthropic ay ina-update ang Patakaran sa Pagkapribado nito, na ginagawa itong pinakabagong pangunahing developer ng AI na gumamit ng data ng chat ng consumer para sa pagsasanay sa modelo nang default. Simula kaagad para sa mga bagong gumagamit at pag-aaplay sa mga umiiral na gumagamit na hindi mag-opt out sa Setyembre 28, ang kumpanya ay mananatili at pag-aralan ang mga pag-uusap mula sa mga serbisyo ng Claude AI upang mapagbuti ang mga modelo sa hinaharap. Ang paglipat ay tumindi ang patuloy na debate tungkol sa privacy ng gumagamit at kontrol ng data sa lahi para sa mas malakas na AI, na inilalagay ang pasanin sa mga indibidwal upang aktibong pamahalaan kung paano ginagamit ang kanilang personal na impormasyon. href=”https://www.anthropic.com/news/updates-to-our-consumer-terms”target=”_ blangko”> malinaw na mag-opt out . Para sa mga pumayag, ang antropiko ay nagpapalawak din ng panahon ng pagpapanatili ng data nito, mula sa nakaraang 30 araw hanggang limang taon. Ilipat sa pamamagitan ng pagpapaliwanag na ang data mula sa mga pakikipag-ugnay sa real-mundo ay nagbibigay ng mga mahahalagang pananaw kung saan ang mga tugon ay pinaka-kapaki-pakinabang at tumpak. Halimbawa, ang isang code ng pag-debug ng developer kasama si Claude ay nag-aalok ng mahalagang mga signal na nagpapabuti sa pagganap ng hinaharap ng modelo sa mga katulad na gawain. Ito ay sumasalamin sa isang mas malawak na takbo ng industriya kung saan ang default na koleksyon ng data ay naging pamantayan para sa mga produktong nakaharap sa consumer. Kamakailan lamang ay inihayag ng Google ang isang katulad na patakaran ng opt-out para sa Gemini, na nakatakdang maganap sa Setyembre 2. Gayundin, ang AI app ng AI, na inilunsad noong Abril 2025, ay naaalala din ang mga chat ng gumagamit nang default upang mai-personalize ang mga tugon at natagpuan upang makuha ang mga sensitibong detalye na inilarawan mula sa mga chat. Ang mga nauna sa Mount

Nagtatalo ang mga kritiko na ang mga opt-out system na ito ay idinisenyo upang mapanghihina ang mga gumagamit mula sa pagprotekta sa kanilang data. Si Ben Winters ng Consumer Federation of America ay tinawag na gayong mga pagsisiwalat at mga pagpipilian na”Ang mga pagsisiwalat at mga pagpipilian sa consumer sa paligid ng mga setting ng privacy ay hindi maganda.”Noong Enero 2025, isang demanda ng aksyon na aksyon na isinampa laban sa LinkedIn, na inaakusahan ito ng paggamit ng mga pribadong mensahe ng inmail mula sa mga premium na tagasuskribi upang sanayin ang mga modelo ng AI, na sinasabing paglabag sa U.S. Communications Act. Ang naghaharing alarmed na mga eksperto sa privacy tulad ni Jay Edelson, na nagbabala,”Ang ideya na nakakuha ka ng isang grupo ng mga abogado na gagawa ng anuman sa kanilang mga pinaka-sensitibong data sa planeta… dapat gawin ang lahat.”Marami ang nakakaramdam ng balanse, kasama si Justin Brookman ng Consumer Reports na napansin,”Ang ideya ng isang ahente ay nagtatrabaho ito sa aking ngalan-hindi sa pagsisikap na manipulahin ako sa ngalan ng iba.”Malinaw na sinasabi ng Anthropic ang bagong patakaran ng opt-out na ay hindi nalalapat sa mga komersyal na handog nito , kasama ang claude para sa trabaho, ang edukasyon, o mga customer ng API. Nag-aalok ang mga kumpanya ng mas malakas na garantiya sa privacy at paghiwalay ng data sa pagbabayad ng mga customer ng negosyo, na humahawak ng sensitibong impormasyon sa korporasyon at hinihiling ang mga kontrol na mas mahigpit. Lumilikha ito ng isang two-tiered system kung saan ang pang-araw-araw na mga gumagamit ay itinuturing bilang isang mapagkukunan para sa pagsasanay sa modelo. Bilang isang mananaliksik mula sa University of Oxford na si Caroline Green,””May kaunting problema pagdating sa pag-unlad ng AI, kung saan ang etika at mga tao ay pangalawang pag-iisip, sa halip na ang panimulang punto.”Tama ito para sa kanila,”ngunit para sa marami, ang mga default na setting ay nagsasabi ng ibang kuwento.

Categories: IT Info