Anthropic telah mengemukakan satu set terperinci cadangan dasar AI ke Pejabat Sains dan Teknologi Putih Rumah (OSTP), menyeru pengawasan kerajaan yang dipertingkatkan dalam pembangunan perisikan buatan. href=”https://assets.anthropic.com/m/4e20a4ab6512e217/original/anthropic-response-to-ostp-rfi-march-2025-piny-submission-v3.pdf”Campurtangan, A.S. mungkin tidak bersedia untuk mencabar ekonomi dan keselamatan yang membawa teknologi tersebut. src=”https://winbuzzer.com/wp-content/uploads/2024/12/anthropic-ai-safety.jpg”>
Sekatan eksport semikonduktor, dan memastikan bahawa makmal penyelidikan AI mempunyai saluran komunikasi yang selamat dengan agensi perisikan. Memodenkan kaedah pengumpulan data ekonomi untuk mengukur dengan lebih baik gangguan yang didorong oleh AI dalam pasaran kerja.
Anthropic telah membingkai cadangannya sebagai tindak balas terhadap kemajuan pesat dalam keupayaan AI. Syarikat memberi amaran bahawa sistem AI sedang berjalan pada kadar yang belum pernah terjadi sebelumnya, dengan model yang mampu mengatasi pakar-pakar manusia dalam bidang seperti pembangunan perisian, membuat keputusan, dan penyelidikan.
dengan ancaman keselamatan siber yang lebih luas yang ditimbulkan oleh penyalahgunaan AI. Laporan Microsoft baru-baru ini mendapati bahawa cyberattacks yang didorong oleh AI telah melonjak kepada lebih daripada 600 juta insiden sehari, dengan kumpulan penggodaman yang disokong oleh negara dari Rusia, China, dan Iran yang memanfaatkan AI untuk serangan yang semakin canggih. > Anthropic secara senyap-senyap menghilangkan komitmen era AI Biden
Semasa menganjurkan peraturan yang lebih ketat, antropik secara serentak memadamkan beberapa komitmen dasar AI yang dibuat di bawah pentadbiran Biden. Inisiatif. Langkah ini telah mencetuskan spekulasi mengenai sama ada antropik menyusun semula secara strategik sebagai tindak balas terhadap perubahan peraturan atau peralihan dinamik industri. Tindakan
Dorongan dasar terkini antropik mengikuti amarannya pada bulan November 2024, apabila ia menggesa pengawal selia global untuk bertindak dalam tempoh 18 bulan atau risiko kehilangan kawalan ke atas pembangunan AI. Pengawasan. Oleh kerana model AI menjadi lebih maju, keupayaan mereka untuk menghasilkan deepfake yang realistik dan memanipulasi kandungan digital menimbulkan risiko tambahan kepada integriti maklumat. Pihak Berkuasa Pertandingan dan Pasaran UK telah melancarkan siasatan ke atas pelaburan $ 2 bilion Google dalam antropik, menilai sama ada perkongsian itu dapat mengurangkan persaingan dalam sektor AI.
Ketika White House mengulas cadangan antropik, perbualan yang lebih luas di sekitar peraturan AI terus berkembang. Syarikat-syarikat seperti Anthropic, Openai, dan Google secara aktif membentuk naratif, tetapi campur tangan kerajaan akan menentukan sama ada komitmen sukarela tetap menjadi strategi pengawalseliaan yang berdaya maju atau jika peraturan yang lebih ketat akan dikuatkuasakan.