Anthropic mengemas kini dasar privasinya, menjadikannya pemaju utama AI terkini untuk menggunakan data sembang pengguna untuk latihan model secara lalai. Bermula dengan segera untuk pengguna baru dan memohon kepada pengguna sedia ada yang tidak memilih keluar pada 28 September, syarikat itu akan mengekalkan dan menganalisis perbualan dari perkhidmatan Claude AI untuk meningkatkan model masa depan.
Langkah ini meningkatkan perdebatan yang berterusan mengenai privasi pengguna dan kawalan data dalam perlumbaan untuk AI yang lebih kuat, meletakkan beban pada individu untuk mengurus secara aktif bagaimana maklumat peribadi mereka digunakan. href=”https://www.anthropic.com/news/updates-to-our-consumer-terms”target=”_ blank”> Secara jelas memilih keluar . Bagi mereka yang bersetuju, antropik juga memperluaskan tempoh pengekalan datanya dengan ketara, dari 30 hari hingga lima tahun sebelumnya. membenarkan langkah dengan menjelaskan bahawa data dari interaksi dunia nyata memberikan pandangan penting ke mana respons yang paling berguna dan tepat. Sebagai contoh, kod debugging pemaju dengan Claude menawarkan isyarat berharga yang meningkatkan prestasi masa depan model pada tugas yang sama.
Peralihan seluruh industri ke arah pengumpulan data lalai
perubahan dasar antropik tidak berlaku dalam vakum. Ia mencerminkan trend industri yang lebih luas di mana pengumpulan data lalai telah menjadi norma untuk produk AI yang menghadap pengguna. Google baru-baru ini mengumumkan dasar opt-out yang sama untuk Gemini, yang ditetapkan untuk berkuatkuasa pada 2 September. Begitu juga, aplikasi AI Meta, yang dilancarkan pada bulan April 2025, juga mengingati sembang pengguna secara lalai untuk memperibadikan respons dan didapati untuk menangkap butiran sensitif yang disimpulkan dari sembang.
dan pendahuluan undang-undang yang dipasang
pivot seluruh industri ini telah dipenuhi dengan rintangan yang signifikan dari penyokong privasi dan telah mencetuskan cabaran undang-undang. Pengkritik berpendapat bahawa sistem opt-out ini direka untuk menghalang pengguna daripada melindungi data mereka. Ben Winters dari Persekutuan Pengguna Amerika memanggil pendedahan dan pilihan seperti itu”Pendedahan dan pilihan pengguna di sekitar tetapan privasi sangat buruk.”
Landskap undang-undang juga menjadi lebih berbahaya bagi syarikat teknologi. Pada bulan Januari 2025, tuntutan mahkamah tindakan kelas telah difailkan terhadap LinkedIn, menuduhnya menggunakan mesej inmail swasta dari pelanggan premium untuk melatih model AI, yang didakwa melanggar Akta Komunikasi yang disimpan. Pakar-pakar privasi yang mengejutkan ini seperti Jay Edelson, yang memberi amaran,”Idea bahawa anda mempunyai sekumpulan peguam yang akan melakukan apa sahaja dengan beberapa data yang paling sensitif di planet ini… harus membuat semua orang tidak selesa.”Ramai yang merasakan keseimbangan itu dimatikan, dengan Justin Brookman dari laporan pengguna menyatakan,”Idea ejen adalah bahawa ia berfungsi bagi pihak saya-bukan untuk cuba memanipulasi saya pada pihak lain. Anthropic secara eksplisit menyatakan dasar opt-out yang baru tidak terpakai kepada penawaran komersil Syarikat-syarikat menawarkan jaminan privasi yang lebih kukuh dan pengasingan data untuk membayar pelanggan perniagaan, yang mengendalikan maklumat korporat sensitif dan permintaan kawalan ketat. Ini mewujudkan sistem dua peringkat di mana pengguna sehari-hari dianggap sebagai sumber untuk latihan model.
Apabila AI menjadi lebih terintegrasi ke dalam kehidupan seharian, pembahagian ini mungkin akan membangkitkan perdebatan lebih lanjut mengenai keadilan dan persetujuan. Sebagai seorang penyelidik dari University of Oxford, Caroline Green, berkata,”Terdapat sedikit masalah ketika datang ke pembangunan AI, di mana etika dan orang-orang adalah pemikiran yang kedua, dan bukannya titik permulaan. Pastikan ia sesuai untuk mereka,”tetapi bagi banyak, tetapan lalai menceritakan kisah yang berbeza.