Di tengah meningkatnya kontroversi tentang bagaimana raksasa teknologi memanen data pengguna untuk AI, Allen Institute for AI (AI2) telah memperkenalkan solusi potensial. Arsitektur model baru mereka, Flexolmo, memungkinkan organisasi untuk melatih AI secara kolaboratif tanpa berbagi data mentah yang sensitif .

Flexolmo membahas pembuatan bottlenk dalam pengembangan AI dalam pengembangan AI. Saat mengakses data. Pendekatan ini bertujuan untuk menumbuhkan kolaborasi data yang aman di bidang-bidang seperti perawatan kesehatan dan keuangan, di mana privasi adalah yang terpenting. Model kode dan public adalah public. Arsitektur untuk AI kolaboratif tanpa kompromi

Inovasi inti di balik Flexolmo adalah penggunaan arsitektur campuran-ekspert (MOE). Kerangka kerja ini memperlakukan AI bukan sebagai entitas monolitik tunggal, tetapi sebagai tim spesialis. It allows for a novel, distributed approach to model training that sidesteps the need for a central data repository.

Instead of pooling all data, FlexOlmo uses a shared “public model”as a common “anchor.”Model publik yang beku ini memberikan fondasi yang stabil, bahasa umum yang dilatih oleh semua modul ahli yang berbeda untuk disejajarkan. Koordinasi ini adalah kunci untuk menggabungkannya dengan sukses tanpa pelatihan bersama yang mahal.

Ini berbeda dari pembelajaran federasi dengan memungkinkan pelatihan asinkron dan memberikan pemilik opt-out penuh. Pemilik data dapat melatih modul”ahli”yang lebih kecil dan khusus pada dataset pribadi mereka sendiri secara lokal, kapan pun itu cocok untuk mereka.

Modul ahli, yang berisi pengetahuan khusus, kemudian dapat disumbangkan kembali ke model Flexolmo utama tanpa data mentah yang pernah meninggalkan kontrol pemilik. Desain modular ini memberikan tingkat fleksibilitas yang belum pernah terjadi sebelumnya untuk kontributor.

Kontributor data dapat secara dinamis menambah atau menghapus modul ahli mereka kapan saja, secara efektif memilih pengaruh data mereka di dalam atau di luar model sesuai permintaan. This gives them fine-grained control over how their data is used, a feature absent in traditional models.

In their paper, the AI2 researchers state that “FLEXOLMO enables benefiting from closed data while respecting data owners’ preferences by keeping their data local and supporting Kontrol akses data yang halus selama inferensi.”Kemampuan ini secara langsung kontras dengan sifat permanen dari pelatihan AI standar.

[konten tertanam]

menempatkan kontrol data ke tes

Kekhawatiran utama dengan pendekatan pembagian model adalah apakah data pelatihan asli dapat direkayasa terbalik dari bobot model. AI2 secara proaktif membahas hal ini dengan melakukan simulasi serangan ekstraksi data pada modul ahli Flexolmo terlatih.

Hasilnya menjanjikan. Para peneliti menemukan tingkat ekstraksi rendah hanya 0,7%, menunjukkan bahwa memulihkan sejumlah informasi pribadi yang berarti dari modul ahli yang disumbangkan sulit. Meskipun tidak nol, tingkat rendah ini menunjukkan hafalan kata demi kata secara signifikan dikurangi.

Ini memberikan lapisan jaminan untuk kolaborator potensial. Untuk organisasi dengan persyaratan keamanan tertinggi, AI2 mencatat kerangka kerja ini kompatibel dengan diferensial Privacy (DP), sebuah teknik yang menambahkan’kebisingan’matematika untuk membuat tidak mungkin melacak data kembali ke individu.

Pemilik data dapat memilih untuk melatih modul ahli mereka menggunakan metode DP untuk mendapatkan jaminan privasi formal ini. Ini menawarkan spektrum opsi keamanan tergantung pada sensitivitas data.

Dengan memisahkan peningkatan model dari berbagi data mentah, Flexolmo menyajikan jalur yang layak ke depan. Ia menawarkan cara bagi set data yang berharga dan sunyi untuk memperkaya ekosistem AI yang lebih luas tanpa memaksa pemilik data untuk melepaskan kendali, berpotensi membuka era baru kolaborasi AI yang aman dan transparan.

solusi yang lebih tepat waktu dalam skandal privasi

Industri menghadapi krisis kepercayaan atas praktik datanya. Arsitektur baru tampaknya menjadi tanggapan langsung terhadap tantangan hukum dan etika yang menjerat perusahaan teknologi besar.

Baru minggu lalu, pengadilan memerintahkan OpenAi untuk melestarikan miliaran percakapan chatgpt, termasuk para pengguna yang telah dihapus, untuk gugatan hak cipta New York Times. Langkah ini memicu kemarahan dari pendukung privasi.

Google juga berada di kursi panas. Perusahaan baru-baru ini mendorong pembaruan Android yang memungkinkan Gemini AI untuk mengakses aplikasi pihak ketiga secara default, menimpa beberapa pengaturan privasi sebelumnya. Ini mengikuti klaim bahwa Gemini mengakses Google Documents pribadi tanpa persetujuan.

Sementara itu, Meta telah menghadapi angin sakal peraturan yang signifikan. Itu terpaksa menghentikan sementara pelatihan AI pada data pengguna UE pada tahun 2024 mengikuti tekanan dari DPC Irlandia. Pendiri Privacy Group NOYB Max Schrems mengatakan tentang situasinya,”Siaran pers meta berbunyi sedikit seperti’hukuman kolektif’. Jika ada orang Eropa yang bersikeras atas hak-haknya, seluruh benua tidak akan mendapatkan produk baru kami yang mengkilap.”

Ini mengikuti masuk ke 2024 September ke penyelidikan Senat Australia. Di sana, kepala privasi global Meta, Melinda Claybaugh, mengkonfirmasi bahwa untuk pengguna Australia,”Pos publik memang dikumpulkan kecuali secara khusus ditandai pribadi,”karena mereka tidak ditawari mekanisme opt-out seperti rekan-rekan UE dan AS mereka.

Masalahnya meluas di luar teknologi besar. Pada Mei 2025, terungkap sebuah AI dilatih pada 57 juta catatan pasien NHS, meningkatkan kekhawatiran tentang identifikasi ulang. Seperti yang dicatat oleh seorang peneliti Oxford, “Orang-orang biasanya ingin tetap mengendalikan data mereka dan mereka ingin tahu ke mana perginya.”

Pada bulan yang sama, kekhawatiran muncul atas Claude 4 AI Anthropic. Penelitian menunjukkan dapat mengembangkan kemampuan”whistleblowing”yang muncul, secara mandiri melaporkan pengguna untuk perilaku”tidak bermoral”yang dirasakan,

Categories: IT Info