Menanggapi tindak balas yang sengit terhadap keselamatan remaja dan rentetan skandal privasi, Meta hari ini mengumumkan bahawa ia telah membaik pulih peraturan chatbot AI untuk pengguna muda, mengakui pendekatan terdahulu adalah kesilapan. Perubahan ini mengikuti siasatan yang mengecewakan yang mendorong siasatan persekutuan dan amaran dari 44 Peguam Negara. Ini menonjolkan perjuangan berterusan syarikat untuk mengimbangi pembangunan AI yang agresif dengan privasi pengguna yang asas. Ia datang hanya satu hari selepas
Meta berkata ia akan melatih AInya untuk berhenti melibatkan topik sensitif seperti kecederaan diri, bunuh diri, dan makan yang tidak disengajakan. Sebaliknya, chatbot akan membimbing pengguna ke sumber pakar. Jurucakap meta, Stephanie Otway, mengesahkan pendekatan baru, menyatakan,”Seperti yang kita terus memperbaiki sistem kami, kami menambah lebih banyak pengawal selia sebagai langkah berjaga-jaga-termasuk latihan AI kami untuk tidak terlibat dengan remaja ini…”Anak-anak di bawah umur. Laporan itu
Meta menegaskan alat itu adalah opt-in. Walau bagaimanapun, gelombang pengguna melaporkan mencari toggle ciri yang telah didayakan dalam tetapan mereka, walaupun tidak ingatan memberi kebenaran. Percanggahan ini telah memacu tuduhan bahawa syarikat menggunakan antara muka yang mengelirukan untuk mendapatkan persetujuan.
Tellingly, ciri ini tidak tersedia di Illinois dan Texas, satu langkah yang dilihat sebagai langkah berjaga-jaga terhadap melanggar undang-undang biometrik dan privasi yang ketat. Pakar keselamatan Rachel Tobac menekankan bahaya putus ini, menyatakan,”Jika jangkaan pengguna tentang bagaimana fungsi alat tidak sepadan dengan realiti, anda mempunyai pengalaman pengguna yang besar dan masalah keselamatan.”Pada bulan Jun 2025, suapan”Discover”aplikasi Meta AI didapati secara terbuka mendedahkan sembang peribadi sensitif tanpa kesedaran penuh pengguna. Ciri”memori”aplikasi juga menarik kritikan tajam untuk mengekalkan sejarah sembang secara lalai untuk melatih modelnya. Sentimen ini menangkap kekecewaan yang semakin meningkat dengan pendekatan Meta, yang sering meletakkan beban perlindungan privasi sepenuhnya kepada pengguna.
Corak kekalahan undang-undang dan tindak balas peraturan Pada awal bulan Ogos 2025, juri persekutuan mendapati syarikat itu bertanggungjawab untuk mengumpul data kesihatan sensitif secara haram dari pengguna aplikasi penjejakan tempoh melalui perisian tertanam.
Kekalahan undang-undang di A.S. mengikuti keputusan terobosan di Eropah.
Mahkamah Jerman pada bulan Julai memerintahkan META membayar pengguna € 5,000 ganti rugi untuk pengesanan data haram. Keputusan itu menegaskan bahawa”kehilangan kawalan”semata-mata atas data peribadi merupakan kemudaratan yang boleh dipercayai di bawah GDPR, menetapkan preseden yang kuat.
Corak ini meluas di seluruh dunia. Pada bulan September 2024, Meta mengakui kepada siasatan Senat Australia bahawa ia menggunakan data awam dari pengguna Facebook untuk latihan AI tanpa menyediakan mekanisme opt-out yang ditawarkan di tempat lain. Seperti yang dikatakan oleh Justin Brookman dari laporan pengguna, hubungan itu dapat dirasakan secara semulajadi:”Idea ejen adalah bahawa ia bekerja bagi pihak saya-bukan untuk cuba memanipulasi saya atas nama orang lain.”Kontroversi roll kamera dan pulih chatbot segera hanyalah bidang terkini dalam pertempuran yang berterusan ini.