Ketika OpenAI melancarkan mod penjanaan imej GPT-4O yang baru kepada pengguna ChATGPT-free, syarikat itu juga bereksperimen dengan teknik watermarking yang kelihatan dan tidak dapat dilihat untuk membantu mengenal pasti visual AI-generasi yang lebih baik. Watermark yang kelihatan seperti label”imagegen”-sedang diuji pada output dari akaun percuma, sementara pengguna berbayar akan

Penjanaan imej sebelum ini terhad kepada peringkat berbayar. Sekarang, bukan hanya teknologi yang berkembang-jadi usaha Openai untuk menjadikan kandungannya lebih mudah dikesan. Ini menandakan strategi yang lebih luas dari OpenAI untuk mengukuhkan atribusi kandungan di tengah-tengah penelitian pemasangan ke atas media yang dihasilkan AI. Pengenal pasti mesin yang boleh dibaca ini termasuk cap waktu, label perisian, dan penanda asal yang membantu mengesahkan provinsi kandungan. Pendekatan ini membina penggunaan metadata C2PA terlebih dahulu di Dall · E 3, yang bermula pada awal 2024.

Walau bagaimanapun, batasan sistem berasaskan metadata terkenal. Sebagai Openai sebelum ini telah diakui, manipulasi mudah seperti tanaman, tangkapan skrin, atau memuat naik imej ke platform yang melucutkan metadata-boleh mengeluarkan penanda yang tidak kelihatan ini. Walaupun kekurangan ini, syarikat menyokong rangka kerja undang-undang yang memerlukan watermarking. Openai, selain Adobe dan Microsoft, telah menyokong Rang Undang-Undang AB 3211 California, yang akan mandat pelabelan kandungan AI yang dihasilkan untuk membantu mengurangkan risiko maklumat yang salah.

Sebagai tambahan kepada pelancaran metadata C2PA untuk Dall · E 3, syarikat itu juga membangunkan sistem watermarking teks untuk CHATGPT, yang diumumkan pada pertengahan 2010. Alat ini tertanam corak linguistik yang tidak dapat dilihat untuk membantu bendera teks AI-dihasilkan. Tetapi kebimbangan mengenai ketepatan dan akibat yang tidak diingini menyebabkan Openai untuk melambatkan pelancaran.

OpenAI mengakui batasan alat dan kemungkinan teknik canggih untuk memintasnya. Syarikat itu juga mencatatkan kebimbangan keadilan yang berpotensi bagi pengguna yang bergantung kepada AI untuk sokongan penulisan bahasa kedua. Tanda air boleh dikeluarkan atau diselaraskan menggunakan strategi mudah seperti penterjemahan semula atau mesin. Dengan menggabungkan petunjuk yang kelihatan dan tidak dapat dilihat, Openai cuba untuk menyerang tanah pertengahan antara kebolehgunaan dan kebolehkesanan.

Pergerakan seluruh industri ke arah atribusi Gergasi teknologi lain telah mengambil langkah-langkah selari untuk menandakan media yang dihasilkan AI. Pada bulan Februari 2025, Google memperluaskan sistem sintetiknya-asalnya dibangunkan oleh DeepMind-untuk foto Google. Teknologi ini kini terpakai kepada imej yang diedit dan juga yang dihasilkan sepenuhnya, membenamkan tanda air yang tidak dapat dilihat secara langsung ke dalam data piksel. Synthid dapat bertahan dalam transformasi asas seperti saiz semula atau penapisan cahaya tetapi kurang berkesan terhadap suntingan berat atau tanaman.

Microsoft juga mengadopsi watermarking pada September 2024 melalui perkhidmatan terbuka Azure, membenamkan metadata yang ditandatangani kriptografi ke dalam imej yang dihasilkan oleh Dall · e. Penyertaan metadata ini mencatatkan sumber generasi, tarikh penciptaan, dan pengecam perisian. Sistem ini adalah sebahagian daripada inisiatif yang lebih luas yang melibatkan perkongsian dengan Adobe, Truepic, dan BBC untuk menyeragamkan pengesahan kandungan di seluruh platform.

Meta, sementara itu, mengambil pendekatan yang lebih langsung. Pada bulan Februari 2024, syarikat itu melancarkan watermark yang kelihatan wajib pada kandungan AI yang dihasilkan di seluruh Facebook, Instagram, dan Thread. Label”dibayangkan dengan AI”muncul pada mana-mana imej yang dibuat oleh alat Meta atau model pihak ketiga seperti Midjourney dan Dall · E. META telah memberi isyarat bahawa ia tidak lama lagi akan memerlukan pendedahan yang sama untuk video sintetik dan audio, dengan tindakan penguatkuasaan yang berpotensi untuk ketidakpatuhan. Pada bulan Oktober 2023, para penyelidik dari University of Maryland menerbitkan satu kajian yang mengkaji batas-batas imej AI Watermarking. Penemuan mereka menunjukkan bahawa kaedah watermarking biasa dapat dikalahkan oleh teknik-teknik adversarial. Lebih banyak mengenai adalah bahawa penyerang boleh”memusnahkan”tanda air ke atas imej yang tidak ditanda, menjadikannya kelihatan seperti yang dihasilkan apabila tidak. Penemuan ini menunjukkan bahawa watermarking sahaja mungkin bukan jaring keselamatan yang boleh dipercayai terhadap media yang dimanipulasi atau maklumat yang salah.

Mengimbangi ketelusan dengan kebolehgunaan

Sekiranya pelanggan yang dibayar akan terus menikmati output bebas air, ini akan mewujudkan sistem dua peringkat yang boleh merumitkan penjejakan kandungan dan kesederhanaan di seluruh platform. Imej tanpa tag yang kelihatan mungkin beredar dengan lebih bebas-tanpa mengira sama ada ia dihasilkan oleh AI. Walau bagaimanapun, apabila media sintetik berkembang, sistem watermarking mungkin perlu berkembang lagi untuk kekal berkesan. Sama ada baki semasa memenuhi jangkaan pengawal selia, platform, dan pengguna masih belum jelas.