Antropik memperbarui kebijakan privasi, menjadikannya pengembang AI utama terbaru yang menggunakan data obrolan konsumen untuk pelatihan model secara default. Mulai segera untuk pengguna baru dan mendaftar ke pengguna yang sudah ada yang tidak memilih keluar pada 28 September, perusahaan akan mempertahankan dan menganalisis percakapan dari layanan AI Claude untuk meningkatkan model masa depan.
Pergeseran ini menyelaraskan antropik dengan pesaing seperti Google dan Meta, yang memiliki kebijakan opt-out yang serupa. Langkah ini mengintensifkan perdebatan yang sedang berlangsung tentang privasi pengguna dan kontrol data dalam perlombaan untuk AI yang lebih kuat, menempatkan beban pada individu untuk secara aktif mengelola bagaimana informasi pribadi mereka digunakan.
antropik mengadopsi kebijakan pelatihan data opt-out
Di bawah istilah baru, data mereka dari pengguna CLAUDE FREE, dan NOVERS TIDAK DI BERKOLLOKSI NOVERSIONNYA, DAT NURB-MAX NOVERS NOVERS NOVERS NOVERS NOVERS NOVERS NOVERS NOVERS NOVERSIONAL DAT NOVIONCE, DAT NOVERSIONAL, DATA DATERSIONAL, DATA DAT NURGOPIC, Data href=”https://www.anthropic.com/news/updates-to-our-consumer-terms”target=”_ blank”> secara eksplisit memilih keluar . Bagi mereka yang menyetujui, antropik juga memperpanjang periode retensi data secara signifikan, dari 30 hari sebelumnya menjadi lima tahun.

Kebijakan itu juga luas, mencakup file yang diekspload pengguna, foto, video, dan bahkan tangkapan layar yang diajukan pengguna tentang pertanyaan. Demikian juga, aplikasi AI Meta, diluncurkan pada bulan April 2025, juga mengingat obrolan pengguna secara default untuk mempersonalisasikan tanggapan dan ditemukan untuk menangkap detail sensitif yang disimpulkan dari obrolan.
Konvergensi strategi ini di antara para pemain berteknologi besar-besaran dan kencang-Konteks. Preseden Hukum Mount
Pivot di seluruh industri ini telah bertemu dengan perlawanan yang signifikan dari pendukung privasi dan telah memicu tantangan hukum. Para kritikus berpendapat bahwa sistem opt-out ini dirancang untuk mencegah pengguna melindungi data mereka. Ben Winters dari Federasi Konsumen Amerika menyebut pengungkapan dan pilihan seperti itu “Pengungkapan dan pilihan konsumen seputar pengaturan privasi sangat buruk.”
Lanskap hukum juga menjadi lebih berbahaya bagi perusahaan teknologi. Pada bulan Januari 2025, gugatan class action diajukan terhadap LinkedIn, menuduhnya menggunakan pesan inmail pribadi dari pelanggan premium untuk melatih model AI, yang diduga melanggar Undang-Undang Komunikasi yang tersimpan.
Lebih lanjut menyulitkan hal-hal yang telah diperintahkan oleh pengadilan pada bulan Juli pada bulan Juli untuk menghidupkan semua pengguna-selama para pengguna-yang telah memiliki delet. Putusan ini para ahli privasi yang khawatir seperti Jay Edelson, yang memperingatkan,”Gagasan bahwa Anda memiliki sekelompok pengacara yang akan melakukan apa pun dengan beberapa data paling sensitif di planet ini… harus membuat semua orang tidak nyaman.”
Kasus-kasus ini menyoroti ketegangan antara industri teknologi yang hirup untuk data dan legal legal dan sahamnya. Banyak yang merasa keseimbangan tidak aktif, dengan Justin Brookman dari Consumer Reports mencatat,”Gagasan tentang agen adalah bahwa ia bekerja atas nama saya-bukan pada mencoba memanipulasi saya atas nama orang lain.”
Divide yang jelas di dalamnya. Antropik secara eksplisit menyatakan kebijakan opt-out baru tidak berlaku untuk penawaran komersialnya , termasuk claude untuk kerja, gov, pendidikan, atau pelanggannya. Perusahaan menawarkan jaminan privasi yang lebih kuat dan pemisahan data untuk membayar pelanggan bisnis, yang menangani informasi perusahaan yang sensitif dan menuntut kontrol yang lebih ketat. Ini menciptakan sistem dua tingkat di mana pengguna sehari-hari diperlakukan sebagai sumber daya untuk pelatihan model.
Karena AI menjadi lebih terintegrasi ke dalam kehidupan sehari-hari, perbedaan ini kemungkinan akan memicu perdebatan lebih lanjut tentang keadilan dan persetujuan. As one researcher from the University of Oxford, Caroline Green, noted, “there is a bit of a problem when it comes to AI development, where the ethics and people are a second thought, rather than the starting point.”
Meta spokesman Thomas Richards defended his company’s approach, stating, “we’ve provided valuable personalization for people on our platforms for decades… We provide transparency and control throughout, so people can manage their experience and make sure Itu tepat untuk mereka,”tetapi bagi banyak orang, pengaturan default menceritakan kisah yang berbeda.