Το YouTube κυκλοφόρησε ένα νέο εργαλείο την Τρίτη για την καταπολέμηση των πλαστών τεχνητής νοημοσύνης, δίνοντας στους δημιουργούς περισσότερο έλεγχο της ψηφιακής τους ταυτότητας.

Το σύστημα ανίχνευσης ομοιότητας επιτρέπει στους χρήστες να βρίσκουν και να ζητούν την κατάργηση των βίντεο που κάνουν κακή χρήση του προσώπου ή της φωνής τους. Αυτή η κίνηση από την πλατφόρμα που ανήκει στην Google έρχεται μετά από εβδομάδες διαμάχης γύρω από την εφαρμογή Sora 2 του OpenAI.

Η κυκλοφορία του Sora 2 προκάλεσε αντιδράσεις από το Χόλιγουντ και τις οικογένειες των διασημοτήτων για μη εξουσιοδοτημένα deepfakes. Αυτό ανάγκασε το OpenAI να αλλάξει γρήγορα τους κανόνες του και να συνεργαστεί με τα συνδικάτα ηθοποιών για να βελτιώσει την ασφάλεια, υπογραμμίζοντας μια αυξανόμενη μάχη σε ολόκληρη τη βιομηχανία για τον έλεγχο του περιεχομένου που δημιουργείται από την τεχνητή νοημοσύνη.

Newh2ube-Likeness-Detection.jpgll> για Προστασία δημιουργών

Σε ένα σημαντικό βήμα για την ενδυνάμωση της κοινότητάς του, το YouTube παρουσίασε επίσημα την τεχνολογία ανίχνευσης ομοιότητας για κατάλληλους δημιουργούς στο Πρόγραμμα συνεργατών YouTube.

Το σύστημα έχει σχεδιαστεί για να αναγνωρίζει περιεχόμενο που δημιουργείται ή τροποποιείται από τεχνητή νοημοσύνη που χρησιμοποιεί το πρόσωπο ή τη φωνή ενός δημιουργού χωρίς τη συγκατάθεσή του. Προσφέρει μια προληπτική άμυνα ενάντια στο αυξανόμενο κύμα πειστικών deepfakes.

Για να αποκτήσουν πρόσβαση στο εργαλείο, οι δημιουργοί πρέπει να ολοκληρώσουν μια εφάπαξ διαδικασία επαλήθευσης ταυτότητας, η οποία απαιτεί μια κυβερνητική ταυτότητα και ένα σύντομο βίντεο απάτης selfie για την αποτροπή χρήση.

Μετά την ενσωμάτωση, το σύστημα, το οποίο λειτουργεί παρόμοια με το το καθιερωμένο Content ID του YouTube για πνευματικά δικαιώματα, σαρώνει νέες μεταφορτώσεις για πιθανές αντιστοιχίσεις.

επισημαίνεται πιθανή κακή χρήση, οι δημιουργοί μπορούν να ελέγξουν το βίντεο και να επιλέξουν να υποβάλουν αίτημα κατάργησης μέσω της διαδικασίας καταγγελίας απορρήτου του YouTube ή μιας τυπικής αξίωσης πνευματικών δικαιωμάτων.

Αυτό δίνει στους δημιουργούς έναν άμεσο μηχανισμό για να προστατεύσουν την προσωπική τους επωνυμία και την ταυτότητά τους, αντιμετωπίζοντας έναν μακροχρόνιο φόβο στην οικονομία των δημιουργών σχετικά με το ενδεχόμενο η ψηφιακή πλαστοπροσωπία να προκαλέσει βλάβη στη φήμη του περιεχομένου.

OpenAI Το Deepfake Firestorm

Η μεθοδική κυκλοφορία του YouTube έρχεται σε πλήρη αντίθεση με το χαοτικό ντεμπούτο της γεννήτριας βίντεο Sora 2 του OpenAI.

Ξεκίνησε στις αρχές Οκτωβρίου, η αρχική πολιτική”εξαίρεσης”του Sora 2 για δημόσια πρόσωπα και χαρακτήρες που προστατεύονται από πνευματικά δικαιώματα, έρχεται αμέσως σε αντίθεση με την αρχή. Ο σχεδιασμός της πλατφόρμας, που ενθάρρυνε τη γρήγορη δημιουργία βίντεο viral, σήμαινε ότι οι χρήστες πλημμύρισαν τη συνοδευτική εφαρμογή κοινωνικής δικτύωσης με μη εξουσιοδοτημένα και συχνά προσβλητικά deepfakes, προκαλώντας έντονη δημόσια κατακραυγή.

Η πιο ισχυρή κριτική προήλθε από τις οικογένειες των νεκρών δημοσίων προσώπων. Η Ζέλντα Γουίλιαμς, κόρη του ηθοποιού Ρόμπιν Γουίλιαμς, περιέγραψε τον πόνο του να βλέπεις «τις κληρονομιές πραγματικών ανθρώπων να συμπυκνώνονται σε … φρικτό, η μαριονέτα της TikTok είναι τρελή».

Τα κτήματα των ηγετών των πολιτικών δικαιωμάτων Μάλκολμ Χ και Μάρτιν Λούθερ Κινγκ καταδίκασαν επίσης την απαξίωση» και την «αισιόδοξη απαξίωση». Η Bernice King, η κόρη του Dr. King, έκανε μια απλή αλλά ηχηρή έκκληση στα social media να σταματήσουν τα βίντεο του πατέρα της.

Το Χόλιγουντ κινητοποιήθηκε γρήγορα ενάντια στην πλατφόρμα. Η επιρροή Creative Artists Agency (CAA) χαρακτήρισε την εφαρμογή ως «σημαντικό κίνδυνο» για τους πελάτες της. Εν τω μεταξύ, η Motion Picture Association (MPA) έθεσε το νομικό βάρος για την κακή χρήση ακριβώς στην εταιρεία AI. Ο Διευθύνων Σύμβουλος της MPA, Charles Rivkin, δήλωσε ότι «…παραμένει δική τους ευθύνη –όχι των κατόχων δικαιωμάτων– να αποτρέψουν την παραβίαση της υπηρεσίας Sora 2.”

Αυτό το ενιαίο μέτωπο από τη δημιουργική βιομηχανία δημιούργησε μια πλήρη κρίση δημοσίων σχέσεων για το OpenAI.

Αντιμετωπίζοντας την έντονη πίεση, η εταιρεία προσπάθησε να αντιστρέψει την πορεία της. Ο Διευθύνων Σύμβουλος Sam Altman ανακοίνωσε μια περιστροφή σε ένα πιο αναλυτικό σύστημα”opt-in”για προστατευμένους χαρακτήρες λίγες μέρες μετά την κυκλοφορία.

Η εταιρεία τροποποίησε αργότερα τους κανόνες της για να επιτρέψει στους εκπροσώπους των”πρόσφατων νεκρών”μορφών να μπλοκάρουν τις ομοιότητές τους. Αυτή η πολιτική εφαρμόστηκε όταν το OpenAI διέκοψε όλες τις γενιές του Μάρτιν Λούθερ Κινγκ Τζούνιορ κατόπιν αιτήματος της περιουσίας του.

Σε μια δήλωση, το OpenAI αναγνώρισε τη δύσκολη ισορροπία που αντιμετώπιζε, λέγοντας:”Ενώ υπάρχουν ισχυρά συμφέροντα για την ελευθερία του λόγου στην απεικόνιση ιστορικών προσώπων, το OpenAI πιστεύει ότι τα δημόσια πρόσωπα και οι οικογένειές τους θα πρέπει τελικά να έχουν τον έλεγχο της επανάχρησης της σειράς”. τα μέτρα κορυφώθηκαν στις Στις 20 Οκτωβρίου, όταν το OpenAI ανακοίνωσε μια επίσημη συνεργασία με τον ηθοποιό Bryan Cranston και το σωματείο SAG-AFTRA για την ενίσχυση των προστατευτικών κιγκλιδωμάτων του, μια κίνηση ορόσημο που βλέπει έναν κορυφαίο προγραμματιστή τεχνητής νοημοσύνης να συνεργάζεται απευθείας με δημιουργικά συνδικάτα για να διαμορφώσει την πολιτική. και Το νέο εργαλείο του YouTube αναδεικνύει την τεράστια νομική και ηθική γκρίζα ζώνη που περιβάλλει τη γενετική τεχνητή νοημοσύνη. Οι παραδοσιακοί νόμοι περί δυσφήμισης συχνά δεν ισχύουν για τους θανόντες, αφήνοντας τις οικογένειες με ένα συνονθύλευμα ασυνεπών δικαιωμάτων μεταθανάτιας δημοσιότητας σε κρατικό επίπεδο.

Αυτό το νομικό κενό, χωρίς υπέρτατο ομοσπονδιακό πρότυπο, επέτρεψε τον πολλαπλασιασμό περιεχομένου που, αν και δεν είναι πάντα, προκαλεί σημαντική συναισθηματική ταλαιπωρία για οικογένειες Η συζήτηση αναζωπυρώνει επίσης θεμελιώδη ερωτήματα για το πώς εκπαιδεύονται τα μοντέλα AI. Οι επικριτές υποστηρίζουν ότι η εξάρτηση του κλάδου από την απόσυρση τεράστιων ποσοτήτων δεδομένων ιστού χωρίς ρητή άδεια είναι ένα θεμελιώδες ζήτημα που δεν έχει επιλυθεί ακόμη.

Ενώ το OpenAI έχει εκφράσει την υποστήριξή του για ομοσπονδιακή νομοθεσία όπως ο νόμος NO FAKES, οι υποστηρικτές ψηφιακών δικαιωμάτων ανησυχούν ότι τέτοιοι νόμοι θα μπορούσαν να καταπνίξουν την ελευθερία του λόγου και την παρωδία, αν δεν γίνει προσεκτική. Το εργαλείο με επίκεντρο τον δημιουργό προσφέρει μια διαφορετική πορεία προς τα εμπρός. Παρέχοντας έναν σαφή, προσβάσιμο μηχανισμό για τα άτομα να ελέγχουν τη δική τους ομοιότητα, η πλατφόρμα τοποθετείται ως πιο υπεύθυνος διαχειριστής της ψηφιακής ταυτότητας.

Για τον ηθοποιό Bryan Cranston, ο οποίος ήταν αντικείμενο μη εξουσιοδοτημένων κλιπ Sora, τέτοια προληπτικά μέτρα είναι απαραίτητα.”Είμαι ευγνώμων στο OpenAI για την πολιτική του και για τη βελτίωση των προστατευτικών κιγκλιδωμάτων του, και ελπίζω ότι αυτές και όλες οι εταιρείες που συμμετέχουν σε αυτό το έργο, θα σέβονται το προσωπικό και επαγγελματικό μας δικαίωμα να διαχειριζόμαστε την αναπαραγωγή της φωνής και της ομοιότητάς μας.”

Καθώς η βιομηχανία παλεύει με αυτές τις νέες τεχνολογίες, η αντίθεση μεταξύ του χάους”build in public”του OpenAI και των δομημένων μελλοντικών προσεγγίσεων του YouTube. Περιεχόμενο που δημιουργείται από τεχνητή νοημοσύνη.

Το αποτέλεσμα αυτών των διαφορετικών στρατηγικών πιθανότατα θα δημιουργήσει κρίσιμα προηγούμενα για την υπεύθυνη ανάπτυξη της τεχνητής νοημοσύνης σε όλο το τεχνολογικό τοπίο.

Categories: IT Info