Καθώς η OpenAI ανατρέπει τη νέα λειτουργία δημιουργίας εικόνων GPT-4O σε χρήστες CHATGPT ελεύθερου επιπέδου, η εταιρεία πειραματίζεται επίσης τόσο με ορατές όσο και με αόρατες τεχνικές υδατογράφησης για να βοηθήσουν στην καλύτερη τον εντοπισμό των οπτικών που παράγονται από το AI. Το ορατό υδατογράφημα-που εμφανίζεται ως ετικέτα”ImageGen”-δοκιμάζεται σε εξόδους από τους ελεύθερους λογαριασμούς, ενώ οι χρήστες που πληρώνονται θα

Όπως ο Tibor Blaho μοιράζεται σε νήματα, μια πρόσφατη ενημέρωση στην εφαρμογή Web CHATGPT εισάγει ένα πειραματικό χαρακτηριστικό που αναφέρει έναν”δείκτη περιουσιακών στοιχείων”. src=”https://winbuzzer.com/wp-content/uploads/2025/03/openai-image-generation.jpg”> Η δημιουργία εικόνων περιοριζόταν στο παρελθόν σε καταβληθείσες επιπτώσεις. Τώρα, δεν είναι μόνο η τεχνολογία που επεκτείνεται-έτσι είναι η προσπάθεια του OpenAi να κάνει το περιεχόμενό της πιο ανιχνεύσιμο. Αυτό σηματοδοτεί μια ευρύτερη στρατηγική από το OpenAI για την ενίσχυση της απόδοσης περιεχομένου εν μέσω ελέγχου της τοποθέτησης σε σχέση με τα μέσα ενημέρωσης που παράγονται από το AI. Αυτά τα αναγνωρίσιμα αναγνώσιμα μηχανήματα περιλαμβάνουν χρονικά σήματα, ετικέτες λογισμικού και δείκτες προέλευσης που βοηθούν στην επαλήθευση της προέλευσης του περιεχομένου. Η προσέγγιση βασίζεται στην προηγούμενη χρήση των μεταδεδομένων C2PA στο Dall · E 3, η οποία ξεκίνησε στις αρχές του 2024. Όπως έχει αναγνωρίσει προηγουμένως ο OpenAI, οι απλές χειρισμοί-όπως η καλλιέργεια, η οθόνη ή η μεταφόρτωση εικόνων σε πλατφόρμες που απομακρύνουν τα μεταδεδομένα-μπορούν να αφαιρέσουν αυτούς τους αόρατους δείκτες. Παρά τις αδυναμίες αυτές, η εταιρεία υποστηρίζει νομικά πλαίσια που απαιτούν υδατογράφημα. Το OpenAI, εκτός από την Adobe και τη Microsoft, υποστήριξε το νομοσχέδιο AB 3211 της Καλιφόρνια, το οποίο θα καθορίσει την επισήμανση του περιεχομένου που δημιουργήθηκε από το AI-που θα συμβάλει στην άμβλυνση των κινδύνων παραπληροφόρησης. Εκτός από την εξέλιξη των μεταδεδομένων C2PA για το Dall · E 3, η εταιρεία ανέπτυξε επίσης ένα σύστημα υδατογράφησης κειμένου για το ChatGPT, που ανακοινώθηκε στα μέσα του 2024. Το εργαλείο ενσωματώνει τα ανεπαίσθητα γλωσσικά πρότυπα για να βοηθήσει να σηματοδοτήσει το κείμενο που δημιουργείται από το AI. Ωστόσο, οι ανησυχίες σχετικά με την ακρίβεια και τις ακούσιες συνέπειες οδήγησαν την OpenAI να καθυστερήσουν την ανάπτυξη. Η εταιρεία σημείωσε επίσης πιθανές ανησυχίες για τη δικαιοσύνη για τους χρήστες που βασίζονται στην AI για υποστήριξη γραπτής γλωσσών δεύτερης γλώσσας. Το υδατογράφημα θα μπορούσε να αφαιρεθεί ή να παραβιαστεί χρησιμοποιώντας απλές στρατηγικές όπως η αναδιαμόρφωση ή η μεταφράσεις της μηχανής. Συνδυάζοντας ορατές και αόρατες δείκτες, ο OpenAI προσπαθεί να χτυπήσει ένα μεσαίο έδαφος μεταξύ της χρηστικότητας και της ανιχνευσιμότητας. Άλλοι τεχνολογικοί γίγαντες έχουν λάβει παράλληλα βήματα για να σηματοδοτήσουν τα μέσα ενημέρωσης. Τον Φεβρουάριο του 2025, η Google επέκτεινε το σύστημα synthid-που αναπτύχθηκε από το DeepMind-στις φωτογραφίες της Google. Η τεχνολογία ισχύει τώρα για επεξεργασμένες εικόνες καθώς και για πλήρως παραγόμενες, ενσωματώνοντας ανεπαίσθητα υδατογραφήματα απευθείας σε δεδομένα εικονοστοιχείων. Το Synthid μπορεί να επιβιώσει βασικούς μετασχηματισμούς όπως το μέγεθος του μεγέθους ή το φιλτράρισμα φωτός, αλλά είναι λιγότερο αποτελεσματική έναντι των βαρέων επεξεργασιών ή της καλλιέργειας. Αυτές οι καταχωρήσεις μεταδεδομένων σημειώνουν την πηγή παραγωγής, την ημερομηνία δημιουργίας και το αναγνωριστικό λογισμικού. Το σύστημα αποτελεί μέρος μιας ευρύτερης πρωτοβουλίας που περιλαμβάνει συνεργασίες με την Adobe, TruePic και το BBC για την τυποποίηση του ελέγχου ταυτότητας περιεχομένου σε πλατφόρμες. Τον Φεβρουάριο του 2024, η εταιρεία εξέδωσε υποχρεωτικά ορατά υδατογραφήματα σε περιεχόμενο που δημιουργήθηκε από την AI σε Facebook, Instagram και Threads. Η ετικέτα”Φανταστεί με AI”εμφανίζεται σε οποιαδήποτε εικόνα που δημιουργήθηκε από τα εργαλεία της Meta ή τα μοντέλα τρίτων όπως το Midjourney και το Dall e. Η Meta έχει σηματοδοτήσει ότι σύντομα θα απαιτήσει παρόμοια αποκάλυψη για συνθετικό βίντεο και ήχο, με πιθανές ενέργειες επιβολής για μη συμμόρφωση. Τον Οκτώβριο του 2023, ερευνητές από το Πανεπιστήμιο του Maryland δημοσίευσαν μια μελέτη που εξετάζει τα όρια του υδατογράφου AI Image. Τα ευρήματά τους έδειξαν ότι οι κοινές μέθοδοι υδατογράφησης μπορούν να ηττηθούν από τις αντιφατικές τεχνικές. Για παράδειγμα, μια διαδικασία που ονομάζεται καθαρισμός διάχυσης-όπου προστίθεται ο θόρυβος Gaussian σε μια εικόνα και στη συνέχεια αποδυναμωθεί-μπορεί να απογυμνώσει αποτελεσματικά τα έντονα υδατογραφήματα από τις παραγόμενες εικόνες. Περισσότεροι είναι ότι οι επιτιθέμενοι μπορούν να «παραμορφώσουν» ένα υδατογράφημα σε μια μη επισημασμένη εικόνα, καθιστώντας την φαίνεται να δημιουργείται AI-όταν δεν είναι. Αυτά τα ευρήματα υποδεικνύουν ότι μόνο η υδατογράφηση μπορεί να μην είναι ένα αξιόπιστο δίχτυ ασφαλείας έναντι των χειριστών μέσων ή της παραπληροφόρησης. Εάν οι συνδρομητές που πληρώνονται θα συνεχίσουν να απολαμβάνουν εξόδους χωρίς υδατογραφήματα, αυτό θα δημιουργήσει ένα σύστημα δύο επιπέδων που θα μπορούσε να περιπλέξει την παρακολούθηση περιεχομένου και τη μετριοπάθεια σε όλες τις πλατφόρμες. Μια εικόνα χωρίς ορατή ετικέτα μπορεί να κυκλοφορήσει πιο ελεύθερα-ανεξάρτητα από το αν είναι η AI-δημιουργημένη. Ωστόσο, καθώς τα συνθετικά μέσα πολλαπλασιάζονται, τα συστήματα υδατογράφησης πιθανότατα θα πρέπει να εξελιχθούν περαιτέρω για να παραμείνουν αποτελεσματικά. Το αν η τρέχουσα ισορροπία ανταποκρίνεται στις προσδοκίες των ρυθμιστικών αρχών, των πλατφορμών και των χρηστών εξακολουθεί να είναι ασαφής.