Di tengah-tengah kontroversi yang semakin meningkat mengenai bagaimana data pengguna teknologi menuai data untuk AI, Institut Allen untuk AI (AI2) telah memperkenalkan penyelesaian yang berpotensi. Senibina model baru mereka, flexolmo, membolehkan organisasi untuk melatih kolaboratif AI tanpa berkongsi data mentah sensitif . Pendekatan ini bertujuan untuk memupuk kerjasama data yang selamat dalam bidang seperti penjagaan kesihatan dan kewangan, di mana privasi adalah yang paling utama. Model code dan

Inovasi teras di belakang Flexolmo adalah penggunaan senibina campuran-experts (MOE). Rangka kerja ini merawat AI bukan sebagai entiti monolitik tunggal, tetapi sebagai satu pasukan pakar. Ia membolehkan pendekatan novel, yang diedarkan untuk latihan model yang menghalang keperluan untuk repositori data pusat.”Anchor.”Model awam beku ini menyediakan asas yang stabil, bahasa umum bahawa semua modul pakar yang berbeza dilatih untuk diselaraskan. Koordinasi ini adalah kunci untuk menggabungkan mereka dengan jayanya tanpa latihan bersama yang mahal.

Pemilik data boleh melatih modul”pakar”yang lebih kecil, khusus pada dataset peribadi mereka sendiri, apabila ia sesuai dengan mereka.

Modul pakar, yang mengandungi pengetahuan khusus, kemudian dapat disumbangkan kembali ke model flexolmo utama tanpa data mentah yang pernah meninggalkan kawalan pemilik. Reka bentuk modular ini menyediakan tahap fleksibiliti yang tidak pernah berlaku untuk penyumbang.

Penyumbang data boleh menambah atau menghapuskan modul pakar mereka pada bila-bila masa, dengan berkesan memilih pengaruh data mereka dalam atau keluar dari model atas permintaan. Ini memberi mereka kawalan halus ke atas bagaimana data mereka digunakan, ciri yang tidak ada dalam model tradisional.

Dalam mereka

[Kandungan tertanam]

Meletakkan kawalan data ke ujian

Kebimbangan utama dengan pendekatan perkongsian model adalah sama ada data latihan asal boleh dibalikkan dari berat model. AI2 secara proaktif ditangani dengan menjalankan simulasi serangan pengekstrakan data pada modul pakar Flexolmo yang terlatih.

Hasilnya menjanjikan. Para penyelidik mendapati kadar pengekstrakan yang rendah hanya 0.7%, menunjukkan bahawa memulihkan jumlah maklumat peribadi yang bermakna dari modul pakar yang disumbangkan adalah sukar. Walaupun tidak sifar, kadar rendah ini mencadangkan hafalan verbatim secara signifikan dikurangkan.

Ini menyediakan lapisan jaminan untuk kolaborator yang berpotensi. Bagi organisasi yang mempunyai keperluan keselamatan tertinggi, AI2 mencatatkan rangka kerja itu serasi dengan privasi kebezaan (DP), teknik yang menambah’bunyi’matematik untuk menjadikannya mustahil untuk mengesan data kembali kepada individu. Ini menawarkan spektrum pilihan keselamatan bergantung kepada kepekaan data.

Dengan decoupling model penambahbaikan dari perkongsian data mentah, Flexolmo membentangkan jalan yang berdaya maju ke hadapan. Ia menawarkan cara untuk dataset yang berharga dan siled untuk memperkayakan ekosistem AI yang lebih luas tanpa memaksa pemilik data untuk melepaskan kawalan, yang berpotensi membuka kunci era baru yang selamat dan telus. Industri menghadapi krisis kepercayaan terhadap amalan datanya. Seni bina baru nampaknya merupakan tindak balas langsung kepada cabaran undang-undang dan etika yang menjerat firma teknologi besar.

Hanya minggu lepas, mahkamah memerintahkan Openai untuk memelihara berbilion perbualan chatgpt, termasuk pengguna telah dihapuskan, untuk tuntutan hak cipta New York Times. Langkah itu mencetuskan kemarahan dari penyokong privasi.

Google juga telah berada di tempat duduk panas. Syarikat itu baru-baru ini menolak kemas kini Android yang membolehkan Gemini AI mengakses aplikasi pihak ketiga secara lalai, mengatasi tetapan privasi terdahulu pengguna. Ini diikuti dengan tuntutan bahawa Gemini mengakses dokumen Google peribadi tanpa persetujuan. Ia terpaksa sementara menghentikan latihan AI pada data pengguna EU pada tahun 2024 selepas tekanan dari DPC Ireland. Kumpulan Privasi Noyb, Max Schrems berkata mengenai keadaan itu,”Siaran akhbar meta berbunyi sedikit seperti’hukuman kolektif’. Jika mana-mana Eropah menegaskan haknya, seluruh benua tidak akan mendapat produk baru yang berkilat.”Di sana, ketua privasi global Meta, Melinda Claybaugh, mengesahkan bahawa untuk pengguna Australia,”jawatan awam memang dikumpulkan kecuali secara khusus ditandakan secara peribadi,”kerana mereka tidak ditawarkan mekanisme opt-out seperti EU dan rakan-rakan AS. Pada bulan Mei 2025, ia telah mendedahkan AI dilatih pada 57 juta rekod pesakit NHS, menimbulkan kebimbangan mengenai pengenalan semula. Seperti yang dinyatakan oleh seorang penyelidik Oxford,”Orang biasanya mahu mengawal data mereka dan mereka ingin tahu di mana ia pergi.”Penyelidikan menunjukkan ia dapat membangunkan kemampuan”pemberi maklumat”yang muncul, melaporkan pengguna secara autonomi untuk tingkah laku”tidak bermoral”,