Als OpenAI den neuen GPT-4O-Bildgenerierungsmodus für freie ChatgPT-Benutzer ausgibt, experimentiert das Unternehmen auch mit sichtbaren und unsichtbaren Wasserzeichen-Techniken, um die II-generierten Bilder besser zu identifizieren. The visible watermark—appearing as an “ImageGen”label—is being tested on outputs from free accounts, while paid users will reportedly continue to receive images Ohne die Marke
als Tibor Blaho, das auf Threads geteilt wurde, führt ein aktuelles Update der ChatGPT-Web-App eine experimentelle Funktion ein, in der ein „Wasserzeichen-Asset-Zeiger“ erwähnt wird und eine Option zum „Bild speichern ohne Wasserzeichen“ bietet. src=”https://winbuzzer.com/wp-content/uploads/2025/03/openai-image-generation.jpg”>
Die Tests fällt mit der allgemeinen Verfügbarkeit von Chatgpt-4o-Image-Erzeugungswerkzeug für alle Benutzer zusammen, einschließlich der freien Planung, einschließlich der freien Planung, die nun auf dem freien Plan zugänglich sind. Die Bildgenerierung war zuvor auf bezahlte Ebenen beschränkt. Jetzt ist es nicht nur die Technologie, die sich erweitert-also ist OpenAIs Bemühungen, ihren Inhalt nachvollziehbarer zu machen. Dies signalisiert eine breitere Strategie von OpenAI zur Stärkung der Inhaltsbeschreibung inmitten der Montage der untersuchten AI-erzeugten Medien. Diese maschinenlesbaren Identifikatoren umfassen Zeitstempel, Softwarebezeichnungen und Herkunftsmarker, die die Herkunft des Inhalts überprüfen. Der Ansatz baut auf der vorherigen Verwendung von C2PA-Metadaten durch OpenAI in der Bildung von Dall · e 3 auf, die Anfang 2024 begann. Wie Openai zuvor anerkannt hat, können einfache Manipulationen-wie das Zuschneiden, Screenshoting oder das Hochladen von Bildern auf Plattformen, die Metadaten ausziehen-diese unsichtbaren Markierungen entfernen. Trotz dieser Mängel unterstützt das Unternehmen rechtliche Rahmenbedingungen für Wasserzeichen. OpenAI hat neben Adobe und Microsoft die Bill 3211 in Kalifornien unterstützt, die die Kennzeichnung von AI-generierten Inhalten vorschreiben würde, um die Risiken der Fehlinformation zu mildern. Zusätzlich zu seinem C2PA-Metadaten-Rollout für Dall · E 3 entwickelte das Unternehmen auch ein Text-Wassermarkierungssystem für ChatGPT, das Mitte 2024 angekündigt wurde. Das Werkzeug hat unmerklich sprachliche Muster eingebettet, um den Text mit dem generierten A-generierten Text zu verzeichnen. Die Bedenken hinsichtlich der Genauigkeit und unbeabsichtigten Konsequenzen führten jedoch dazu, dass OpenAI die Rollout verzögert. Das Unternehmen stellte auch potenzielle Fairness-Bedenken für Benutzer fest, die sich auf KI für die Unterstützung zweiter Sprache verlassen. Das Wasserzeichen könnte mit einfachen Strategien wie Umformungen oder maschineller Übersetzung entfernt oder verschleiert werden. Durch die Kombination von sichtbaren und unsichtbaren Indikatoren versucht OpenAI, einen Mittelweg zwischen Benutzerfreundlichkeit und Rückverfolgbarkeit zu erreichen. Andere Tech-Giganten haben parallele Schritte unternommen, um die Medien von AI-generierten zu markieren. Im Februar 2025 erweiterte Google sein synthides System-original von DeepMind entwickelt-auf Google-Fotos. Die Technologie gilt nun sowohl für bearbeitete als auch für vollständig erzeugte Bilder, die unmerksame Wasserzeichen direkt in Pixeldaten einbetten. Synthid kann grundlegende Transformationen wie Größe oder Lichtfilterung überleben, ist jedoch weniger effektiv gegen schwere Änderungen oder Anbaus. Diese Metadateneinträge stellen die Erzeugungsquelle, das Erstellungsdatum und die Software-Kennung fest. Das System ist Teil einer breiteren Initiative, die Partnerschaften mit Adobe, Truepic und der BBC umfasst, um die Content-Authentifizierung über Plattformen hinweg zu standardisieren. Im Februar 2024 hat das Unternehmen obligatorische sichtbare Wasserzeichen für AI-generierte Inhalte auf Facebook, Instagram und Threads eingeführt. Das Etikett”Imagined With AI”wird auf jedem Bild angezeigt, das von den Tools von Meta oder Drittanbieter wie Midjourney und Dall · e erstellt wurde. Meta hat signalisiert, dass es bald eine ähnliche Offenlegung für synthetische Videos und Audio erfordern wird, mit potenziellen Durchsetzungsmaßnahmen für die Nichteinhaltung. Im Oktober 2023 veröffentlichten Forscher der University of Maryland eine Studie, in der die Grenzen des AI-Image-Wasserzeichens untersucht wurden. Ihre Ergebnisse zeigten, dass gemeinsame Wasserzeichenverfahren durch kontroverse Techniken besiegt werden können.
Beispielsweise wird ein Prozess, der als Diffusionsreinigung bezeichnet wird-wobei Gaußsche Rauschen zu einem Bild hinzugefügt und dann beeniert werden-können untrennbare Wasserzeichen aus erzeugten Bildern effektiv entfernen. Mehr besorgniserregend ist, dass Angreifer ein Wasserzeichen auf ein nicht markiertes Bild”fälschen”können, sodass es in seinem Papier zugesagt wird, wenn dies nicht der Fall ist. Diese Ergebnisse legen nahe, dass Wassermarkierung allein möglicherweise kein zuverlässiges Sicherheitsnetz gegen manipulierte Medien oder Fehlinformationen darstellt. Wenn bezahlte Abonnenten weiterhin mit Wasserzeichenfreien profitieren werden, würde dies ein zweistufiges System erstellen, das die Verfolgung und Moderation von Inhalten über Plattformen komplizieren kann. Ein Bild ohne sichtbares Tag könnte freier zirkulieren-unabhängig davon, ob es Ai-Generated ist. Da sich synthetische Medien proliferiert, müssen sich Wassermarkierungssysteme jedoch wahrscheinlich weiterentwickeln, um wirksam zu bleiben. Ob das aktuelle Gleichgewicht die Erwartungen von Regulierungsbehörden, Plattformen und Benutzern erfüllt, ist noch unklar.