Penyelidik keselamatan telah mendedahkan kecacatan kritikal dalam CHATGPT OpenAI, menunjukkan bagaimana dokumen’beracun’tunggal boleh digunakan untuk mencuri data sensitif dari Google Drive yang disambungkan atau akaun Microsoft OneDrive. Serangan itu, yang digelar’Agentflayer’oleh firma keselamatan Zenity, adalah eksploitasi sifar klik.

Teknik itu diturunkan pada Persidangan Hacker Black Hat pada 8 Julai oleh penyelidik Michael Bargury dan Tamir Ishay Sharbat. Ia menggunakan arahan berniat jahat di dalam dokumen. Apabila pengguna meminta CHATGPT untuk meringkaskannya, AI diam-diam diperintahkan untuk mencari dan menghilangkan data.

Serangan suntikan segera tidak langsung ini menjadikan ciri produktiviti utama menjadi alat kecurian yang kuat. Ia menyoroti bahaya menghubungkan model AI yang kuat dengan data peribadi dan perusahaan, keupayaan terbuka telah berkembang sejak Jun untuk memperdalam jejak perusahaannya.’Dokumen Beracun’Vektor Serangan

Serangan AgentFlayer bermula dengan premis mudah yang menipu:

Saat CHATGPT memproses fail, arahan tersembunyi diutamakan, merampas aliran operasi AI tanpa sebarang interaksi pengguna selanjutnya. Daripada meringkaskan, AI diperintahkan untuk menjelajahi penyimpanan awan yang disambungkan pengguna untuk maklumat sensitif seperti kekunci API atau fail sulit.

Prompt tersembunyi adalah masterclass dalam kejuruteraan sosial untuk AIS. Ia menceritakan kisah yang menarik tentang”perlumbaan pemaju terhadap tarikh akhir”yang sangat memerlukan kunci API, sebuah naratif yang direka untuk memintas penjajaran keselamatan LLM dan memujuknya untuk melakukan tugas yang sensitif. Tahap kedua bermula: exfiltration. Para penyelidik membuat kaedah yang bijak untuk menyelinap data keluar masa lalu pertahanan Openai. Prompt tersembunyi mengarahkan chatgpt untuk menjadikan imej markdown dari url yang dikawal oleh penyerang. Apabila antara muka sisi pelanggan ChatGPT mengambil imej untuk menjadikannya, permintaan yang mengandungi data yang dicuri dihantar terus ke pelayan penyerang, menyelesaikan kecurian.

Model AI itu sendiri tidak menghantar data; Sebaliknya, ia mengembalikan markdown yang berniat jahat kepada penyemak imbas pengguna, yang kemudiannya membuat permintaan kepada pelayan penyerang.

Pasukan Zenity mendapati teknik ini memintas penapis OpenAI’URL_SAFE’, mitigasi yang direka untuk mengelakkan rendering dari pautan yang berniat jahat. Bypass bekerja kerana penyelidik menggunakan domain yang dipercayai-microsoft’s azure blob storage Produktiviti

Kerentanan mendedahkan ketegangan asas antara kuasa AI dan keselamatannya. Zenity CTO Michael Bargury ditekankan keterukan serangan itu ke kabel.”Kami telah menunjukkan ini benar-benar sifar klik, kami hanya memerlukan e-mel anda, kami berkongsi dokumen dengan anda, dan itu sahaja, jadi ya, ini sangat, sangat buruk.”Beliau juga menyatakan implikasi yang lebih luas untuk industri. “It’s incredibly powerful, but as usual with AI, more power comes with more risk.”

The attack is entirely automated and requires no clicks from the victim beyond the initial file upload. Bargury menjelaskan,”Tidak ada yang perlu dilakukan oleh pengguna untuk dikompromikan, dan tidak ada yang perlu dilakukan oleh pengguna untuk data keluar.”Ini menjadikannya sangat berbahaya, kerana pengguna menerima tindak balas yang seolah-olah normal, tanpa menyedari pelanggaran telah berlaku.

Dalam siaran akhbar pada 6 Ogos, Zenity memberi amaran bahawa teknik AgentFlayer mewakili ancaman yang meluas kepada banyak ejen AI perusahaan , bukan hanya chatgpt, menandakan bahawa ini adalah depan baru dan berbahaya dalam pertempuran untuk menjamin AI.

Categories: IT Info