Når Openai ruller ut den nye GPT-4O-bildegenereringsmodus til gratis-lags chatGPT-brukere, eksperimenterer selskapet også med både synlige og usynlige vannmerke-teknikker for å bidra til å identifisere AI-genererte visuelle bilder bedre. The visible watermark—appearing as an “ImageGen”label—is being tested on outputs from free accounts, while paid users will reportedly continue to Motta bilder uten merket.
Som Tibor Blaho delte på tråder, introduserer en fersk oppdatering av ChatGPT-webappen en eksperimentell funksjon som nevner en”vannmerket Asset Pointer”og gir et alternativ til”Lagre bilde uten vannmerke”.
Vis på tråder
src=”https://winbuzzer.com/wp-content/uploads/2025/03/openai-image-generation.jpg”>
Testingen sammenfaller med den generelle tilgjengeligheten av chatgpt-4Os bildegenereringsgrenser. Bildegenerering var tidligere begrenset til betalte nivåer. Nå er det ikke bare teknologien som utvides-så er Openais innsats for å gjøre innholdet mer sporbart. Dette signaliserer en bredere strategi fra Openai for å styrke innholdsattribusjonen midt i montering av granskning over AI-genererte medier.
synlige merker, usynlige metadata
Mens det synlige vannmerket er den mest åpenbare endringen, innebærer Openai også metadata i sine bilder ved hjelp av C2pa. Disse maskinlesbare identifikatorene inkluderer tidsstempler, programvaremerker og opprinnelsesmarkører som hjelper til med å verifisere innholdets herkomst. Tilnærmingen bygger på Openais tidligere bruk av C2PA-metadata i Dall · E 3-bildegenerering, som begynte tidlig i 2024.
Imidlertid er begrensningene i metadatabaserte systemer velkjente. Som Openai tidligere har anerkjent, kan enkle manipulasjoner-som beskjæring, skjermbilde eller laste opp bilder til plattformer som striper metadata-fjerne disse usynlige markørene. Til tross for disse manglene, støtter selskapet juridiske rammer som krever vannmerke. Openai, foruten Adobe og Microsoft, har støttet Californias AB 3211-regning, som ville mandatmerking av AI-generert innhold for å bidra til å dempe risikoen for feilinformasjon.
Openais eksperimenter med vannmerke date tilbake i god tid før denne siste testen. I tillegg til C2PA-metadatautrullingen for Dall · E 3, utviklet selskapet også et tekstvannmerkingssystem for ChatGPT, kunngjort i midten av 2024. Verktøyet innebygde umerkelige språklige mønstre for å hjelpe til med å flagge AI-generert tekst. Men bekymringene for nøyaktighet og utilsiktede konsekvenser førte til at Openai forsinket utrullingen.
Openai erkjente verktøyets begrensninger og muligheten for sofistikerte teknikker for å omgå det. Selskapet bemerket også potensielle rettighetsproblemer for brukere som er avhengige av AI for andrespråklig skrivestøtte. Vannmerket kan fjernes eller tilsløres ved hjelp av enkle strategier som omforming eller maskinoversettelse.
Disse tidligere innsatsene gir viktig kontekst for ChatGPT-4O vannmerke-testen. Ved å kombinere synlige og usynlige indikatorer, prøver Openai å slå en midtbane mellom brukbarhet og sporbarhet.
bransjeomfattende bevegelser mot attribusjon
Openai er ikke alene om å omgå innholdsgodkjenning. Andre tech-giganter har tatt parallelle skritt for å markere AI-genererte medier. I februar 2025 utvidet Google sitt synthid-system-opprinnelig utviklet av DeepMind-til Google-bilder. Teknologien gjelder nå redigerte bilder så vel som full genererte, og innebærer umerkelige vannmerker direkte i pikseldata. Synthid kan overleve grunnleggende transformasjoner som størrelse eller lysfiltrering, men er mindre effektiv mot tunge redigeringer eller beskjæring.
Microsoft vedtok også vannmerke i september 2024 gjennom sin Azure Openai-tjeneste, og innebygde kryptografisk signerte metadata til bilder generert av Dall · E. Disse metadataoppføringene noterer generasjonskilde, opprettelsesdato og programvareidentifikator. Systemet er en del av et bredere initiativ som involverer partnerskap med Adobe, TruePIC og BBC for å standardisere innholdsgodkjenning på tvers av plattformer.
Meta tok i mellomtiden en mer direkte tilnærming. I februar 2024 rullet selskapet ut obligatoriske synlige vannmerker på AI-generert innhold over Facebook, Instagram og tråder. Etiketten”forestilt med AI”vises på et hvilket som helst bilde laget av Metas verktøy eller tredjepartsmodeller som Midjourney og Dall · e. Meta har signalisert at den snart vil kreve lignende avsløring for syntetisk video og lyd, med potensielle håndhevingshandlinger for manglende overholdelse.
Tekniske begrensninger og forskningsutfordringer
Til tross for økende adopsjon, har vannmarking fortsatt svakheter. I oktober 2023 publiserte forskere fra University of Maryland en studie som undersøkte grensene for vannmerke i AI. Funnene deres viste at vanlige vannmerke-metoder kan beseire ved motstanders teknikker.
For eksempel kan en prosess som kalles diffusjonsrensing-der Gaussisk støy tilsettes et bilde og deretter denoised-effektivt strippe umerkelige vannmerker fra genererte bilder. Mer angående er at angripere kan”forfalske”et vannmerke på et umerket bilde, noe som får det til å se ut til å være AI-generert når det ikke er.
I papiret deres beskrev teamet også en avvisning av deteksjon: å forbedre nøyaktigheten for å unngå falske negativer (mangler et vannmerke) øker risikoen for falske positiver (flagg umerket innhold). Disse funnene antyder at vannmerke alene ikke kan være et pålitelig sikkerhetsnett mot manipulerte medier eller feilinformasjon.
Balansering av gjennomsiktighet med brukervennlighet
Beslutningen om å begrense det synlige”ImageGen”vannmerket til gratis brukere har ført til spørsmål om konsistens. Hvis betalte abonnenter vil fortsette å glede seg over vannmerkefrie utganger, vil dette skape et to-lags system som kan komplisere innholdssporing og moderasjon på tvers av plattformer. Et bilde uten en synlig tag kan sirkulere mer fritt-noe som er om det er AI-generert.
Openais dobbeltlags strategi-kombinerer synlige merker med metadata-kan gjenspeile et forsøk på å dempe disse problemene uten å gjøre avveininger for harde for brukbarhet. Imidlertid, som syntetiske medier spredes, vil vannmerke-systemer sannsynligvis trenge å utvikle seg ytterligere for å forbli effektive. Enten den nåværende balansen oppfyller forventningene til regulatorer, plattformer og brukere er fremdeles uklar.