Antropik telah mengirimkan serangkaian rekomendasi kebijakan AI terperinci kepada Kantor Kebijakan Sains dan Teknologi Gedung Putih (OSTP), menyerukan peningkatan pengawasan pemerintah dalam pengembangan intelijen buatan.
href=”https://assets.anthropic.com/m/4e20a4ab6512e217/original/anthropic-response-to-ostp-rfi-march-2025-final-submisi-volumsass non-volume-fine-non-volume. Intervensi, A.S. mungkin tidak siap untuk tantangan ekonomi dan keamanan yang dibawa oleh teknologi seperti itu.
Namun, karena mendesak regulator federal untuk mengambil peran yang lebih aktif dalam tata kelola AI, antropik telah diam-diam menghilangkan beberapa komitmen kebijakan AI yang dibuat di bawah administrasi Biden, menimbulkan pertanyaan tentang sikapnya yang berevolusi pada regulasi diri sendiri. src=”https://winbuzzer.com/wp-content/uploads/2024/12/anthropic-ai-safety.jpg”>
proposal peraturan AI yang diserahkan kepada National Focus, Fokus Keamanan Nasional
Rekomendasi KEKERIAN NASTHOPIC PRIPLIASI NASIONAL
Rekomendasi KEKERATAN baru yang diserahkan kepada National KEKERATAN
KEKERJAAN PERTOBITU KEKERJAAN BARU POSITASI BARU PERTOBITU KEKUASAN NASIONAL BARUS
pembatasan ekspor semikonduktor, dan memastikan bahwa laboratorium penelitian AI memiliki saluran komunikasi yang aman dengan badan-badan intelijen.
Antropik juga mengusulkan perluasan besar-besaran dari jaringan listrik AS, memperkirakan bahwa sistem AI akan membutuhkan 50 gigawatt dari infrastruktur energi dalam waktu yang dekat. Agensi untuk memodernisasi metode pengumpulan data ekonomi untuk mengukur gangguan yang digerakkan oleh AI dengan lebih baik di pasar kerja.
Antropik telah membingkai proposalnya sebagai respons terhadap kemajuan cepat dalam kemampuan AI. Perusahaan memperingatkan bahwa sistem AI mengalami kemajuan pada tingkat yang belum pernah terjadi sebelumnya, dengan model yang mampu mengungguli para ahli manusia di bidang-bidang seperti pengembangan perangkat lunak, pengambilan keputusan, dan penelitian.
Argumen ini diperkuat oleh tingkat kinerja AI yang baru-baru ini. dengan ancaman keamanan siber yang lebih luas ditimbulkan oleh AI penyalahgunaan. Sebuah laporan Microsoft baru-baru ini menemukan bahwa serangan cyber yang digerakkan AI telah melonjak menjadi lebih dari 600 juta insiden per hari, dengan kelompok peretasan yang didukung negara dari Rusia, Cina, dan Iran memanfaatkan AI untuk serangan yang semakin canggih.
Data ini melelihkan rekomendasi antropik untuk pengujian keamanan wajib dari mereka adalah uji-model AI-mandat pada mereka. > Antropik diam-diam menghilangkan komitmen AI era era
Sementara mengadvokasi peraturan yang lebih ketat, antropik telah secara bersamaan menghapus beberapa komitmen kebijakan AI yang sebelumnya dibuat oleh administrasi Biden.
Komitmen ini adalah bagian dari fram kerja sukarela yang disetujui oleh AI. Inisiatif.
Komitmen, yang berfokus pada penskalaan AI yang bertanggung jawab dan mitigasi risiko, diam-diam dihapus dari situs web Anthropic tanpa penjelasan publik.
Waktu pembalikan kebijakan ini terkenal, karena datang seperti yang didorong perusahaan untuk intervensi pemerintah yang lebih kuat dalam pemerintahan AI. Langkah ini telah memicu spekulasi tentang apakah antropik memposisikan dirinya secara strategis sebagai respons terhadap perubahan peraturan atau pergeseran dinamika industri.
Sementara perusahaan belum secara terbuka mengomentari pemindahan, perubahan itu menimbulkan kekhawatiran tentang tingkat transparansi AI saat menganjurkan regulasi eksternal yang kuat. Action
Anthropic’s latest policy push follows its stark warning in November 2024, when it urged global regulators to act within 18 months or risk losing control over AI development.
At the time, the company highlighted several emerging risks, including AI’s ability to autonomously conduct cybersecurity breaches, facilitate biological research, and execute complex tasks with minimal human Pengawasan.
Urgensi dari seruan untuk tindakan ini diamplifikasi oleh kekhawatiran tentang ancaman cyber yang mendukung AI, yang telah meningkat secara paralel dengan kemajuan dalam kinerja AI.
Peneliti keamanan telah memperingatkan bahwa serangan phishing yang digerakkan AI dan kreasi malware otomatis membuat sistem keamanan tradisional semakin banyak. Ketika model AI menjadi lebih maju, kemampuan mereka untuk menghasilkan deepfake yang realistis dan memanipulasi konten digital menimbulkan risiko tambahan terhadap integritas informasi.
Pengaruh perusahaan dan peran teknologi besar dalam regulasi AI
Pengaturan kebijakan yang berkembang di masa lalu. Kompetisi dan Otoritas Pasar Inggris telah meluncurkan investigasi terhadap investasi Google $ 2 miliar dalam antropik, menilai apakah kemitraan dapat mengurangi persaingan di sektor AI.
Ketika Gedung Putih meninjau rekomendasi antropik, percakapan yang lebih luas di sekitar regulasi AI terus berkembang. Perusahaan seperti Anthropic, Openai, dan Google secara aktif membentuk narasi, tetapi intervensi pemerintah akan menentukan apakah komitmen sukarela tetap merupakan strategi pengaturan yang layak atau jika aturan yang lebih ketat akan ditegakkan.
Mengingat meningkatnya pengaruh raksasa teknologi ini, hasilnya secara signifikan mempengaruhi bagaimana industri AI diatur dan apakah keamanan nasional dan kekhawatiran etika ini adalah masalah etika yang dikhawatirkan secara nasional adalah masalah etika nasional dan kekhawatiran etika.