Enam belas perusahaan AI terkemuka, termasuk Google, Microsoft, IBM, dan OpenAI, telah setuju untuk menonaktifkan teknologi mereka jika mereka menunjukkan tanda-tanda menyebabkan dampak yang merugikan. Komitmen ini dibuat selama AI Seoul Summit 2024 di Korea Selatan, sebuah peristiwa penting setelah AI Safety Summit tahun lalu. KTT sebelumnya menghasilkan Deklarasi Bletchley, yang ditandatangani oleh 28 negara dan UE, yang menguraikan visi untuk mengelola risiko AI tanpa komitmen yang mengikat.

Komitmen Keamanan AI Frontier

KTT Seoul telah memperkenalkan Komitmen Keamanan AI Frontier, yang mengharuskan perusahaan yang berpartisipasi untuk mempublikasikan kerangka kerja keselamatan. Kerangka kerja ini akan merinci bagaimana mereka berencana mengukur dan mengelola risiko yang terkait dengan model AI mereka. Perusahaan harus menentukan kapan risiko menjadi tidak dapat diterima dan menguraikan tindakan yang akan mereka ambil dalam skenario tersebut. Jika mitigasi risiko gagal, para penandatangan berjanji untuk menghentikan pengembangan atau penerapan model atau sistem AI yang bermasalah.

Para penandatangan telah berkomitmen pada beberapa inisiatif, termasuk menggabungkan kembali model AI mereka, berbagi informasi, dan berinvestasi. dalam keamanan siber, dan memberi insentif pada pelaporan kerentanan pihak ketiga. Mereka juga berjanji untuk memberi label pada konten yang dihasilkan oleh AI, memprioritaskan penelitian mengenai risiko sosial, dan menggunakan AI untuk mengatasi tantangan global.

Di antara para penandatangan adalah OpenAI, Microsoft, Amazon, Anthropic, Cohere, G42, Inflection AI, Meta, Mistral AI, Naver, Samsung Electronics, Technology Institut Inovasi, xAI, dan Zhipu.ai. Rincian komitmen ini diharapkan dapat diselesaikan di “AI Action Summit”dijadwalkan pada awal tahun 2025.

Organisasi-organisasi tersebut telah menyetujui Frontier AI berikut ini Komitmen Keselamatan:

“Hasil 1. Organisasi secara efektif mengidentifikasi, menilai, dan mengelola risiko ketika mengembangkan dan menerapkan model dan sistem AI terdepan mereka. Mereka akan:

I. Menilai risiko yang ditimbulkan oleh model atau sistem terdepan mereka di seluruh siklus hidup AI, termasuk sebelum menerapkan model atau sistem tersebut, dan, jika diperlukan, sebelum dan selama pelatihan. Penilaian risiko harus mempertimbangkan kemampuan model dan konteks di mana model atau sistem tersebut dikembangkan diterapkan, serta efektivitas mitigasi yang diterapkan untuk mengurangi risiko yang terkait dengan penggunaan dan penyalahgunaan yang dapat diperkirakan dan penyalahgunaannya. Mereka juga harus mempertimbangkan hasil evaluasi internal dan eksternal sebagaimana mestinya, seperti yang dilakukan oleh evaluator pihak ketiga yang independen, pemerintah negara asal mereka[catatan kaki 2). ], dan badan-badan lain yang dianggap tepat oleh pemerintahnya.

II. Tetapkan ambang batas[catatan kaki 3] di mana risiko-risiko parah yang ditimbulkan oleh suatu model atau sistem, kecuali jika dimitigasi secara memadai, akan dianggap tidak dapat ditoleransi. Menilai apakah ambang batas ini telah dilanggar, termasuk memantau seberapa dekat suatu model atau sistem dengan pelanggaran tersebut. Ambang batas ini harus ditentukan berdasarkan masukan dari pihak-pihak yang dipercaya, termasuk pemerintah asal masing-masing organisasi, jika diperlukan. Negara-negara tersebut harus menyelaraskan diri dengan perjanjian-perjanjian internasional yang relevan dimana pemerintah negara asal mereka menjadi pihak. Hal ini juga harus disertai dengan penjelasan tentang bagaimana ambang batas ditentukan, dan dengan contoh spesifik situasi di mana model atau sistem akan menimbulkan risiko yang tidak dapat ditoleransi.

III. Mengartikulasikan bagaimana mitigasi risiko akan diidentifikasi dan diterapkan untuk menjaga risiko dalam ambang batas yang ditentukan, termasuk mitigasi risiko terkait keselamatan dan keamanan seperti memodifikasi perilaku sistem dan menerapkan kontrol keamanan yang kuat untuk bobot model yang belum dirilis.

IV. Tetapkan proses eksplisit yang ingin mereka ikuti jika model atau sistem mereka menimbulkan risiko yang memenuhi atau melampaui ambang batas yang telah ditentukan sebelumnya. Hal ini mencakup proses untuk mengembangkan lebih lanjut dan menerapkan sistem dan model mereka hanya jika mereka menilai bahwa risiko yang tersisa akan tetap berada di bawah ambang batas. Secara ekstrim, organisasi berkomitmen untuk tidak mengembangkan atau menerapkan model atau sistem sama sekali, jika mitigasi tidak dapat diterapkan untuk menjaga risiko tetap di bawah ambang batas.

V. Terus berinvestasi dalam meningkatkan kemampuan mereka dalam melaksanakan komitmen i-iv, termasuk penilaian dan identifikasi risiko, definisi ambang batas, dan efektivitas mitigasi. Hal ini harus mencakup proses untuk menilai dan memantau kecukupan mitigasi, dan mengidentifikasi mitigasi tambahan yang diperlukan untuk memastikan risiko tetap berada di bawah ambang batas yang telah ditentukan. Mereka akan berkontribusi dan mempertimbangkan praktik terbaik yang muncul, standar internasional, dan ilmu pengetahuan tentang identifikasi, penilaian, dan mitigasi risiko AI.

Hasil 2. Organisasi bertanggung jawab untuk mengembangkan dan menerapkan frontier mereka dengan aman Model dan sistem AI. Mereka akan:

VI. Patuhi komitmen yang diuraikan dalam I-V, termasuk dengan mengembangkan dan terus meninjau kerangka akuntabilitas dan tata kelola internal serta menetapkan peran, tanggung jawab, dan sumber daya yang memadai untuk melakukannya.

Hasil 3. Pendekatan organisasi terhadap AI terdepan keselamatan sudah cukup transparan bagi aktor eksternal, termasuk pemerintah. Mereka akan:

VII. Memberikan transparansi kepada publik mengenai penerapan hal-hal di atas (I-VI), kecuali jika hal tersebut akan meningkatkan risiko atau membocorkan informasi komersial sensitif hingga tingkat yang tidak proporsional terhadap manfaat masyarakat. Mereka tetap harus membagikan informasi yang lebih rinci yang tidak dapat dibagikan secara publik kepada pihak-pihak yang dipercaya, termasuk pemerintah asal masing-masing negara atau lembaga yang ditunjuk, jika diperlukan.

VIII. Jelaskan bagaimana, jika memang ada, aktor eksternal, seperti pemerintah, masyarakat sipil, akademisi, dan masyarakat dilibatkan dalam proses penilaian risiko model dan sistem AI mereka, kecukupan kerangka keselamatan mereka (seperti yang dijelaskan dalam I-VI), dan kepatuhan mereka terhadap kerangka kerja tersebut.”

Kerja Sama Global dan Rencana Masa Depan

Dalam opini yang ditulis bersama, Perdana Menteri Inggris Rishi Sunak dan Presiden Korea Selatan Yoon Suk Yeol menekankan pentingnya percepatan upaya dalam tata kelola AI. KTT Seoul juga menyaksikan diadopsinya Deklarasi Seoul, yang menyoroti pentingnya interoperabilitas antara kerangka tata kelola AI untuk memaksimalkan manfaat dan memitigasi risiko. Australia, PBB, OECD, dan UE, serta para pemimpin industri.

Categories: IT Info