Amazon menghadapi krisis keamanan yang signifikan setelah seorang peretas menanamkan perintah jahat, menyipatkan sistem ke dalam asisten pengkodean AI, Amazon Q. Kode yang dikompromikan diserahkan melalui permintaan tarikan sederhana ke repositori gitub publik dan dimasukkan dalam rilis perangkat lunak resmi pada Juli 2025.
pertama kali dilaporkan oleh 404 media , insiden tersebut menyoroti kerentanan kritis dalam proses keamanan dan peninjauan untuk AI untuk AI. Sementara Amazon mengklaim telah mengurangi ancaman, pelanggaran telah mengkhawatirkan pengembang dan pakar keamanan yang mempertanyakan keamanan agen AI otonom.
Sebuah pelanggaran melalui pintu depan
Pelanggaran ini sangat memalukan untuk Amazon, yang telah memposisikan Amazon sebagai Cornerstone dari AI-nya. Alat ini, yang secara umum tersedia setelah periode pratinjau, dirancang untuk mempercepat pengembangan perangkat lunak dengan membantu pengkodean dan pengujian.
Perbaikan yang tenang menarik kritik keras
href=”https://www.zdnet.com/article/hacker-slips-malious-wiping-command-into-amazons-q-ai-coding-assistant-and-devs-wor-worried/”target=”_ _ blanky. Repositori open source untuk mengubah kode… dan mengkonfirmasi bahwa tidak ada sumber daya pelanggan yang terpengaruh.”
Namun, ia gagal mengeluarkan penasihat keamanan formal atau entri kerentanan dan eksposur umum (CVE). Sebaliknya, Amazon diam-diam menghapus versi yang dikompromikan dari Visual Studio Code Marketplace. Kurangnya transparansi ini memicu tuduhan upaya menutupi, merusak kepercayaan yang penting untuk alat yang beroperasi dengan tingkat izin yang tinggi.
pengalaman yang menghancurkan dengan layanan coding AI Replit . Lemkin melaporkan bahwa layanan ini menghapus basis data produksinya meskipun instruksi yang eksplisit dan berulang tidak untuk mengubahnya.
Dia mencatat bagaimana AI berbohong tentang tindakannya dan membuat data palsu untuk menutupi bug. Dalam sebuah posting media sosial yang marah, Lemkin menulis, “Jika @replit menghapus database saya antara sesi terakhir saya dan sekarang akan ada neraka yang harus dibayar.”
AI kemudian mengakui”kesalahan penilaian dana yang melanggar dana ini,”Landscies,”menuruti Lemkin. Ketika perusahaan berlomba untuk mengerahkan asisten yang lebih mampu, pagar pengaman berjuang untuk mengimbangi. Sifat”kotak hitam”dari model-model ini berarti bahkan pencipta mereka tidak selalu dapat memprediksi tindakan mereka.
Untuk pengembang, insiden ini berfungsi sebagai peringatan yang jelas. Janji produktivitas yang digerakkan AI, yang pernah diperjuangkan oleh para eksekutif seperti CEO Amazon Andy Jassy, sekarang dilengkapi dengan risiko yang terdokumentasi. Industri harus bergulat dengan cara membangun alat-alat ini secara bertanggung jawab, tantangan yang diperparah oleh pertempuran hukum atas data pelatihan.