meta telah melancarkan peralihan yang ketara dalam pendekatannya kepada kecerdasan buatan (AI) dengan pelancaran Rangka Kerja Frontier AI , dasar yang bertujuan untuk mengawal pembebasan sistem AI berisiko tinggi. Dibuat secara terbuka, menandakan pemergian dari strategi akses terbuka sebelumnya Meta. Pendekatan baru itu datang sebagai Meta menghadapi kebimbangan mengenai potensi penyalahgunaan teknologi AI yang kuat, seperti model Llama.
Sejarah, Meta telah mengambil pendekatan yang agak terbuka kepada AI, menjadikan modelnya dapat diakses secara meluas. Walau bagaimanapun, keterbukaan ini telah mengakibatkan akibat yang tidak diingini, dengan laporan yang menunjukkan bahawa pelakon-pelakon adversarial telah menanggung semula model-model ini untuk tujuan berniat jahat, seperti pembangunan chatbots berorientasikan pertahanan yang tidak dibenarkan.com/wp-content/muat naik/2024/07/meta-ai-gen-3D-scaled.jpg”>
Kebimbangan keselamatan ini telah membawa meta untuk menimbang semula strategi penempatan AInya. Dengan memperkenalkan rangka kerja AI perbatasan, meta bertujuan untuk mengekang risiko yang berkaitan dengan melepaskan sistem AI yang boleh digunakan untuk tujuan berbahaya. Risiko
Rangka kerja AI Frontier mengklasifikasikan sistem AI ke dalam dua kategori yang berbeza: berisiko tinggi dan berisiko kritikal. Kedua-dua kategori ditakrifkan oleh potensi kemudaratan model-model ini boleh menyebabkan jika dieksploitasi, tetapi perbezaannya terletak pada keterukan akibatnya. agen atau senjata biologi berbahaya. Walau bagaimanapun, kesannya mungkin kurang bencana daripada sistem risiko kritikal, yang Meta mentakrifkan sebagai model yang mampu menyebabkan kemudaratan yang tidak dapat dipulihkan, yang meluas.
Ini termasuk senario seperti penciptaan automatik senjata biologi atau penuh-Sscale cyberattack pada infrastruktur kritikal.
Keputusan Meta untuk mengehadkan akses kepada sistem berisiko tinggi sehingga perlindungan yang sesuai dilaksanakan adalah langkah penting dalam mengimbangi inovasi AI dengan keselamatan. Seperti yang ditekankan oleh syarikat,”kami percaya bahawa dengan mempertimbangkan kedua-dua faedah dan risiko dalam membuat keputusan tentang cara membangun dan menggunakan AI lanjutan, adalah mungkin untuk menyampaikan teknologi itu kepada masyarakat dengan cara yang memelihara manfaat teknologi itu kepada masyarakat sementara juga mengekalkan tahap risiko yang sesuai.”
Peralihan meta dari akses terbuka ke AI
strategi baru meta mewakili pivot yang signifikan dari pendiriannya yang lebih awal AI. Pelakon luar untuk tujuan yang tidak diingini dan berpotensi berbahaya, seperti perkembangan alat pertahanan yang boleh dieksploitasi untuk tujuan yang berniat jahat.
Untuk melihat terperinci mengenai stratgy akses terbuka sebelumnya dan cabaran meta ditemui, lihat artikel kami tentang apa yang Meta tidak memberitahu anda tentang model”sumber terbuka”dan definisi AI sumber terbuka dari Inisiatif Sumber Terbuka.
Dengan rangka kerja AI Frontier baru, Meta mengambil pendekatan yang lebih berhati-hati. Rangka kerja ini bukan sahaja mengkategorikan model AI dengan tahap risiko tetapi juga menyediakan proses yang jelas untuk menentukan bagaimana model berisiko tinggi akan dikendalikan.
sistem berisiko tinggi akan dihadkan kepada akses dalaman, dengan perlindungan tambahan dimasukkan ke dalam tempat sebelum penempatan yang lebih luas. Model risiko kritikal akan menghadapi kawalan yang lebih ketat, termasuk penghentian lengkap dalam pembangunan sehingga mereka dapat dikerjakan semula untuk mengurangkan bahaya potensi mereka.
Pendekatan Meta berdiri berbeza dengan beberapa pesaingnya. Walaupun syarikat-syarikat seperti Openai telah memilih akses yang lebih terkawal ke model mereka, langkah Meta ke arah mengehadkan akses lagi mencerminkan kebimbangan yang semakin meningkat mengenai penyalahgunaan AI. Ini bermakna untuk pembangunan AI Meta
pembezaan meta antara sistem AI berisiko tinggi dan kritikal adalah penting untuk memahami bagaimana syarikat akan menavigasi pembangunan dan penempatan modelnya.
Sistem AI berisiko tinggi, seperti yang ditakrifkan oleh meta, dapat memudahkan cyberattacks atau membantu dalam penciptaan agen biologi yang berbahaya. Walau bagaimanapun, kesan potensi model-model ini mungkin kurang teruk daripada sistem risiko kritikal, yang mampu menyebabkan kemudaratan yang tidak terkawal, yang meluas.
Sistem risiko kritikal ini boleh membawa kesan bencana, seperti membolehkan Proliferasi senjata biologi atau menyebabkan gangguan yang signifikan dalam infrastruktur kritikal.
Dengan menubuhkan perbezaan ini, Meta mewujudkan rangka kerja yang membantu menguruskan risiko AI dengan lebih berkesan. Sebagai nota Meta, keputusan untuk melepaskan model AI tertentu akan dibuat dengan mempertimbangkan kedua-dua faedah yang berpotensi dan risikonya. Risiko yang berkaitan dengan alat AI yang kuat mesti ditimbang dengan teliti sebelum sebarang penggunaan.
Mengapa Meta sedang melaksanakan sekatan ini sekarang
titik perubahan untuk meta. Walaupun syarikat itu telah menjadi penyokong keterbukaan dan kebolehcapaian dalam pembangunan AI, keputusannya untuk melaksanakan kawalan yang lebih ketat datang pada masa risiko yang berkaitan dengan teknologi AI telah menjadi lebih jelas.
Peralihan Meta dari terbuka-Access Model mencerminkan kebimbangan industri yang lebih luas mengenai keselamatan dan keselamatan sistem AI maju, yang digambarkan oleh pelepasan sistem perlindungan AI antropik baru-baru ini, yang dipanggil
Nampaknya terdapat konsensus yang semakin meningkat, ia dikaitkan dengan kenaikan penyalahgunaannya.
Sebagai contoh, laporan pelakon asing yang menggunakan model Meta untuk tujuan berkaitan pertahanan menyerlahkan bahaya melepaskan model AI tanpa perlindungan yang mencukupi. Institusi penyelidikan yang dikaitkan dengan Tentera Pembebasan Rakyat China (PLA) Membangunkan alat AI yang disebut”chatbit”menggunakan model Llama yang tersedia secara terbuka Boleh memupuk inovasi, ia juga boleh meninggalkan pintu terbuka untuk aplikasi teknologi yang berpotensi berbahaya