Google erweitert seine synthid-Wasserzeichen-Technologie um Google-Fotos und fügt unsichtbare digitale Markierungen zu Bildern hinzu, die mit KI-angetriebenen Tools verändert wurden.

Dies ist ein wichtiger Schritt in der Bemühungen von Google, die KI-Transparenz zu verbessern, da die Bearbeitung von AI-unterstützten Inhalten anspruchsvoller wird. Das Update, das diese Woche einsetzt Bedenken hinsichtlich der Ausbreitung veränderter Medien. Das Unternehmen hat zuvor im Oktober 2024 in Google Photos in Google Photos auf Metadaten basierende KI-Labels eingeführt. Diese Methode musste jedoch die Benutzer die Bilddetails manuell überprüfen. Mit Synthid wird nun ein verstecktes Wasserzeichen auf Pixelebene eingebettet, so 2024/05/Google-Deepmind-Synthid-ai.jpg”>

Wie synthid funktioniert und warum Google es erweitert. Zu markieren von AI-generierter und AI-bewirtschafteter Inhalt, ohne das visuelle Erscheinungsbild zu beeinflussen. Im Gegensatz zu herkömmlichen Wasserzeichen, die häufig entfernt werden, wenn die Bilder verändert oder komprimiert werden, erstellt Synthid eine unsichtbare Kennung, die unter den meisten Standard-Änderungen nachweisbar bleibt.

Die Technologie wurde zunächst verwendet, um Bilder zu verfolgen, die vom Google-Modell von ImageN 3 erstellt wurden, und jetzt zielt die Ausdehnung von AI-modifizierten Bildern darauf ab, eine Lücke in der AI-Inhaltsüberprüfung zu schließen.

Die Das Watermark kann mit dem Tool von Google”About the Image”gelesen werden, das den Benutzern Informationen über den Ursprung eines Bildes und alle Änderungen der KI-basierten Modifikationen liefert. Reduzieren Sie seine Wirksamkeit Medien wurden bereits in politischen Kampagnen, Promi-Deepfakes und täuschenden Werbung verwendet.//arxiv.org/pdf/2310.00076.pdf”> Studie von der University of Maryland stellte fest, dass Gegentechniken häufig AI-Wasserzeichen aus den Bildern entziehen können und ihre Zuverlässigkeit als Werkzeug zur Authentifizierung verringern können.

Meta hat auch KI-Transparenzmaßnahmen eingeführt und obligatorische AI-generierte Labels für Inhalte auf Facebook und Instagram hinzugefügt. Das Unternehmen hat einen zusätzlichen Schritt mit seinem Video Seal-Framework gemacht, der neuronale Wasserzeichen anwendet, die auch nach Modifikationen bestehen.

In der Zwischenzeit hat Microsoft sichtbare Wasserzeichen in AI-generierte Bilder von Bing Image Creator eingebettet, während OpenAI C2PA-Metadaten in Bildern implementiert hat Transparenz, sie haben auch Einschränkungen. Wasserzeichen und Metadatenetiketten können entfernt, verändert oder ignoriert werden, was sie zu einer unvollständigen Lösung für das Fehlinformationsproblem macht. Dies geht besonders in einer Zeit, in der KI-angetante Bearbeitungswerkzeuge es erleichtern, digitale Medien zu manipulieren. > Die Expansion von Synthid ist nicht nur ein freiwilliger Schritt von Google-es kommt inmitten des zunehmenden Drucks von Regierungen und Aufsichtsbehörden, um sicherzustellen, dass der Inhalt von AI-generiertem Inhalt identifizierbar ist.

im Oktober 2023, die Biden Administration hat eine Exekutivverordnung erlassen , die Tech-Unternehmen anwies, stärkere Wasserzeichen-und Authentifizierungssysteme für Medien für AI-generierte AI-generierte Einrichtungen zu errichten. In der Ordens wurden Bedenken hinsichtlich der AI-gesteuerten Wahlmischung, Deepfake-Betrug und der schnellen Ausbreitung synthetischer Fehlinformationen angeführt.-Erstellte Inhalte und Implementierung von Erkennungsmechanismen. Die endgültige Version der Gesetzgebung, die im Juli 2024 veröffentlicht wurde und seit diesem Monat in Kraft ist, führt zu Strafen für Unternehmen, die die Authentifizierungsmaßnahmen der Inhalte nicht einhalten. Die Debatte über die Effektivität

Während Google, um synthid auf bearbeitete Bilder zu erweitern, ist ein Schritt in Richtung größerer Transparenz. Sie befasst sich nicht vollständig mit dem breiteren Problem der AI-generierten Inhaltsprüfung. AI-Wasserzeichen wie Synthid, Adobe’s Content-Anmeldeinformationen und C2PA-Metadaten von OpenAI können wichtige digitale Signaturen liefern, aber sie sind auf der Annahme, dass Plattformen und Benutzer sie überprüfen. nicht immer hartnäckig. AI-generierte Inhalte werden häufig verändert, beschnitten oder neu aufgestellt, bevor sie online geteilt werden, und metadatenbasierte Labels können abgezogen werden, wenn Bilder in soziale Medien hochgeladen werden.

Infolgedessen sind viele Experten, während Wassermarking ein wertvolles Instrument ist, durch kryptografische Überprüfungsmethoden und eine stärkere Provenienzverfolgung ergänzt. Sie bieten keine absolute Sicherheit gegen die Manipulation von AI-generierten Inhalten”> Mit dem Aufstieg von AI-generierten Inhalten untersuchen Unternehmen und Aufsichtsbehörden zusätzliche Methoden zur Authentifizierung, die über Wasserzeichen hinausgehen. P>

Die jüngste Expansion von Synthiden von Google zeigt, dass Technologieunternehmen die Notwendigkeit einer stärkeren Authentifizierung von KI-Inhalten erkennen.

Categories: IT Info