Gli artisti stanno trovando i loro gemelli digitali in luoghi inaspettati e spesso sgraditi online, scatenando rammarico per gli accordi firmati con le società di intelligenza artificiale per autorizzare le loro somiglianze.

Segnala che gli attori dettagliati scoprono i loro avatari generati dall’IA che promuovono $ 5 o implicazioni o mancanza di controllo.

Synthesia, a major UK-based AI video platform valued at $2.1 billion in January, features frequently in these accounts, guidando l’azienda a rispondere alle preoccupazioni con i nuovi programmi e politiche. Secondo quanto riferito, il suo contratto proibiva solo l’uso pornografico o l’associazione con l’alcol/tabacco.

L’attore coreano Simon Lee

L’attore Dan Dewhirst, noto per i ruoli nelle principali produzioni, si contrae con la sintesia nel 2021; Nonostante il suo agente e l’Unione azionaria che tentano di negoziare termini migliori (che secondo quanto riferito dalla Sintesia ha rifiutato), il suo avatar in seguito apparve nella propaganda politica venezuelana, secondo un posto di notizie azionario dell’ottobre 2024. Il leader del colpo di stato del 2022 di Burkina Faso-Un’uso di sintesia riconosciuta ha violato i suoi termini.

Contratti, compensazione e controllo

Questi incidenti sottolineano le potenziali insidie ​​in agguato negli attori dei contratti segni per la licenza di simpatia. L’avvocato Alyssa Malchiodi, parlando con AFP, ha osservato che gli attori spesso non hanno compreso appieno i termini concordato, a volte firmando accordi con clausole considerate abusive.”Una delle principali bandiere rosse è l’uso di un linguaggio ampio, perpetuo e irrevocabile che dà alla società la piena proprietà o i diritti senza restrizioni di utilizzare la voce, l’immagine e la somiglianza di un creatore su qualsiasi mezzo”, ha avvertito Malchiodi.

Mentre il pagamento in anticipo potrebbe sembrare attraente-Coy ha concesso a questo denaro decente per poca lavoro-la mancanza di controllo e potenziale di riposo. Contrasta bruscamente con le protezioni stabilite nei media tradizionali. Seguendo gli scioperi del settore, il sag-aftra 2023 TV/accordo teatrale Ora manda il consumo informato e per l’uso di una replica digitale”. repliche create durante l’occupazione rispetto a quelle generate in modo indipendente. I sindacati sostengono ampiamente i principi spesso riassunti come i”quattro pilastri”: trasparenza, consenso, compensazione e controllo, standard apparentemente assenti in alcuni primi accordi di avatar di AI. 2025, ha risposto al crescente esame.

Nel marzo 2025, la società consenso, controllo e collaborazione , che richiede un consenso esplicito per uso di somiglianza.

La società ha anche dettagliato il suo Approccio di moderazione multi-strato , coinvolgendo i checks di creazione, automobilistica, manuale di versetti”team, più deterrenti finanziari come i divieti di account senza rimborsi per uso improprio.

Alexandru Voica, responsabile degli affari aziendali della Syntesia, ha riconosciuto problemi passati, affermando:”Tre anni fa, alcuni video hanno fatto scivolare la nostra moderazione dei contenuti.

Ha aggiunto che la società ora tratta”i contenuti dannosi come una seria minaccia per la sicurezza, mentre per molte di queste app di intelligenza artificiale questo tipo di contenuto è un modello di business”.

La sintesia ora proibisce l’uso di Avatar Stock negli annunci a pagamento, i media di trasmissione (senza rilascio separato) e il contenuto politico o in stile notizia. Agli attori viene anche offerta una rinuncia alla futura creazione di video, innescando la cancellazione dei dati, sebbene ciò non influisca sui video già esistenti. La sintesia continua il suo sviluppo tecnologico, Annunciando un accordo nell’aprile 2025 con Shutterstock per la licenza per migliorare il realismo di Avatar e ho ricevuto investimenti strategici da Adobe nello stesso mese . avatar. Mentre la sintesia si concentra su applicazioni aziendali come la formazione aziendale, il potenziale della tecnologia per l’uso improprio mira le preoccupazioni viste altrove. Gli strumenti di clonazione della voce AI stanno rapidamente avanzando; Openi ha sviluppato il suo motore vocale altamente realistico ma ha esitato su una versione pubblica nell’aprile 2024 a causa di problemi di uso improprio, proponendo garanzie come la verifica del consenso.

Microsoft Teams sta integrando la clonazione vocale per la traduzione, sottolineando il consenso dell’utente. Nel frattempo, aziende come Runway AI stanno avanzando un’animazione facciale realistica, affrontando domande simili sull’etica della formazione dei dati.

Anche gli organi legislativi stanno iniziando a reagire. California ha superato le leggi nel 20 settembre (AB 2602, AB 1836) per le repliche del digial. Fakes Act mira a stabilire uno standard nazionale. Man mano che la tecnologia che consente i gemelli digitali diventa più accessibile e convincente, la necessità di chiare linee guida etiche, contratti equi e solidi quadri giuridici che regolano la loro creazione e uso diventa sempre più evidente.

Categories: IT Info