Alors que OpenAI déploie le nouveau mode de génération d’images GPT-4O aux utilisateurs de ChatGPT de niveau libre, la société expérimente également des techniques de filigrane visibles et invisibles pour aider à mieux identifier les visuels générés par l’IA. Le filigrane visible-l’apparition d’une étiquette”Imagegen”-est testé sur les sorties des comptes gratuits, tandis que les utilisateurs payants En tant que Tibor Blaho partagée sur les threads, une récente mise à jour de l’application Web Chatgpt présente une fonctionnalité expérimentale qui mentionne un”pointeur d’actif filigrané”et offre une option pour”enregistrer l’image sans filigrane”. Vue sur les fils Le test coïncide avec la disponibilité générale de l’outil de génération d’images de Chatgpt-4o pour tous les utilisateurs, y compris ceux du plan gratuit, qui y ont maintenant accédé avec des limites d’utilisation quotidiens. La génération d’images était auparavant limitée aux niveaux payants. Maintenant, ce n’est pas seulement la technologie qui se développe-il s’agit donc d’efforts d’Openai pour rendre son contenu plus traçable. Cela signale une stratégie plus large d’OpenAI pour renforcer l’attribution du contenu au milieu de l’examen de montage sur les médias générés par l’IA. Bien que le filigrane visible soit le changement le plus évident, OpenAI intègre également les métadonnées dans ses images en utilisant la norme C2PA C2PA. Ces identifiants lisibles par machine comprennent des horodatages, des étiquettes de logiciels et des marqueurs d’origine qui aident à vérifier la provenance du contenu. L’approche s’appuie sur l’utilisation préalable d’OpenAI des métadonnées C2PA dans la génération d’images de Dall · e 3, qui a commencé au début de 2024. Cependant, les limites des systèmes basés sur les métadonnées sont bien connues. Comme OpenAI l’a précédemment reconnu, des manipulations simples-comme la culture, la capture d’écran ou le téléchargement d’images sur des plates-formes qui dépassent les métadonnées-peuvent supprimer ces marqueurs invisibles. Malgré ces lacunes, la société soutient les cadres juridiques exigeant un filigrane. Openai, outre Adobe et Microsoft, a soutenu le projet de loi de Californie AB 3211, qui obligerait l’étiquetage du contenu généré par l’IA pour aider à atténuer les risques de désinformation. Les expériences d’Openai avec le filigrane remontent bien avant ce dernier test. En plus de son déploiement de métadonnées C2PA pour Dall · E 3, la société a également développé un système de filigrane de texte pour Chatgpt, annoncé à la mi-2024. L’outil a intégré des modèles linguistiques imperceptibles pour aider à signaler le texte généré par l’AI. Mais les préoccupations concernant la précision et les conséquences involontaires ont conduit Openai à retarder le déploiement. Openai a reconnu les limites de l’outil et la possibilité de techniques sophistiquées pour le contourner. La société a également noté des problèmes d’équité potentiels pour les utilisateurs qui comptent sur l’IA pour un support d’écriture en seconde série. Le filigrane pourrait être retiré ou obscurci à l’aide de stratégies simples comme le rephras ou la traduction automatique. Ces efforts antérieurs fournissent un contexte essentiel pour le test de filigrane ChatGPT-4O. En combinant des indicateurs visibles et invisibles, OpenAI tente de frapper un terrain d’entente entre l’utilisabilité et la traçabilité. OpenAI ne sont pas seuls à repenser l’authentification du contenu. D’autres géants de la technologie ont pris des mesures parallèles pour marquer les médias générés par l’IA. En février 2025, Google a élargi son système synthétique-développé originalement par DeepMind-sur Google Photos. La technologie s’applique désormais aux images éditées ainsi qu’à des images entièrement générées, intégrant les filigranes imperceptibles directement dans les données de pixels. Le synthide peut survivre aux transformations de base comme le redimensionnement ou le filtrage de la lumière, mais est moins efficace contre les modifications lourdes ou les recadrage. Microsoft a également adopté le filigrane en septembre 2024 via son service Azure Openai, intégrant des métadonnées signées cryptographiquement dans des images générées par Dall · e. Ces entrées de métadonnées notent la source de génération, la date de création et l’identifiant du logiciel. Le système fait partie d’une initiative plus large impliquant des partenariats avec Adobe, Truepic et la BBC pour normaliser l’authentification du contenu sur toutes les plateformes. Meta, quant à elle, a adopté une approche plus directe. En février 2024, la société a déployé des filigranes visibles obligatoires sur un contenu généré par l’IA sur Facebook, Instagram et des fils. L’étiquette «imaginée avec AI» apparaît sur n’importe quelle image créée par Meta’s Tools ou des modèles tiers comme MidJourney et Dall · E. Meta a signalé qu’il nécessitera bientôt une divulgation similaire pour la vidéo et l’audio synthétiques, avec des actions d’application potentielles pour la non-conformité. Malgré une adoption croissante, le pli, a encore des faiblesses. En octobre 2023, des chercheurs de l’Université du Maryland ont publié une étude examinant les limites du filigrane d’image de l’IA. Leurs résultats ont montré que les méthodes de filigrane communes peuvent être vaincues par des techniques adversaires. Par exemple, un processus appelé purification de diffusion-où le bruit gaussien est ajouté à une image, puis débrouillard-peut effectivement déshabiller les filigranes imperceptibles des images générées. Plus préoccupant est que les attaquants peuvent «usurper» un filigrane sur une image non marquée, ce qui le fait être généré par l’AIA alors qu’il ne l’est pas. Dans leur article, l’équipe a également décrit un compromis de détection: l’amélioration de la précision pour éviter de faux négatifs (manquant un fulgrandage) augmente le risque de faux positifs (signalant le contenu non marqué). Ces résultats suggèrent que le filigrane seul peut ne pas être un filet de sécurité fiable contre les médias manipulés ou la désinformation. La décision de limiter le filigrane”ImageGen”visible aux utilisateurs gratuits a suscité des questions sur la cohérence. Si les abonnés payants continueront de profiter des sorties sans filigrane, cela créerait un système à deux niveaux qui pourrait compliquer le suivi et la modération du contenu sur toutes les plates-formes. Une image sans étiquette visible peut circuler plus librement-sans ce qu’elle soit générée par l’AI. La stratégie à double couche d’Openai-combinant des marques visibles avec des métadonnées-peut refléter une tentative d’atténuer ces problèmes sans rendre les compromis trop durs pour la convivialité. Cependant, à mesure que les milieux synthétiques prolifèrent, les systèmes de filigrane devront probablement évoluer davantage pour rester efficace. La question de savoir si l’équilibre actuel répond aux attentes des régulateurs, des plates-formes et des utilisateurs n’est toujours pas claire.
Marques visibles, les métadonnées invisibles
Les mouvements à l’échelle de l’industrie vers l’attribution
Limitations techniques et défis de recherche
Équilibrant la transparence avec la convivialité
Categories: IT Info