OpenAI sta attualmente discutendo con i rappresentanti di Scarlett Johansson in seguito alla rimozione di una voce ChatGPT che gli utenti hanno trovato sorprendentemente simile all’attrice. Questa mossa arriva dopo che il team legale di Johansson ha richiesto trasparenza riguardo al processo di sviluppo della voce, denominata Sky.
Richieste legali e reazioni pubbliche
Gli avvocati che rappresentano Johansson hanno ha inviato due lettere a OpenAI, chiedendo informazioni dettagliate su come è stata creata la voce dell’assistente AI. Il team dell’attrice ha espresso preoccupazione per la somiglianza della voce con il suo personaggio nel film”Her”del 2013, che ha stimolato un dibattito più ampio sulle implicazioni etiche delle voci generate dall’intelligenza artificiale.
Joanne Jang, che guida la modella comportamento presso OpenAI, ha sottolineato che la società sta prendendo sul serio il feedback e mira a chiarire eventuali malintesi. OpenAI ha sostenuto che la voce di Sky non deriva da quella di Johansson e si è scusata per qualsiasi confusione. La voce è stata rimossa dalle opzioni predefinite dopo averla evidenziata dalla copertura mediatica il problema.
Sviluppo e personalizzazione delle voci AI
Il CEO di OpenAI Sam Altman aveva precedentemente contattato Johansson con la proposta di concedere in licenza la sua voce per il nuovo assistente ChatGPT”Dopo molte considerazioni e per motivi personali, ho rifiutato l’offerta,”ha detto Johansson attraverso una dichiarazione a NPR. Nonostante ciò, l’azienda procedette con una voce che molti trovarono stranamente simile. Il CTO Mira Murati ha spiegato che la voce è stata sviluppata da quella di un’altra attrice, la cui identità rimane sconosciuta per motivi di privacy.
Johansson afferma che la decisione di OpenAI l’ha lasciata”scioccata, arrabbiata e incredula che il signor Altman avrebbe perseguito un voce che suonava così stranamente simile alla mia che i miei amici più cari e i notiziari non riuscivano a distinguere.”
Caratteristiche avanzate di GPT-4o
La Il modello GPT-4o, che alimenta ChatGPT, offre funzionalità avanzate come l’interpretazione delle espressioni facciali, il rilevamento delle emozioni e persino il canto a comando. Durante una dimostrazione dal vivo, l’assistente vocale ha mostrato un tono civettuolo, sollevando domande sulle sue strategie di coinvolgimento per migliorare l’interazione dell’utente, ma sollevano anche preoccupazioni etiche sull’uso dell’intelligenza artificiale per imitare le voci umane.
Johansson ha espresso le sue preoccupazioni sulla questione più ampia dei deepfake e sulla protezione delle somiglianze personali “In a momento in cui siamo tutti alle prese con i deepfake e con la protezione della nostra immagine, del nostro lavoro, delle nostre identità, credo che queste siano domande che meritano assoluta chiarezza”, ha affermato Johansson.
Questo incidente sottolinea le sfide che derivano dal rapido progresso delle tecnologie di intelligenza artificiale. OpenAI prevede di introdurre voci aggiuntive per soddisfare le diverse preferenze degli utenti, garantendo un’esperienza utente più inclusiva e varia.
Nel mezzo di questa controversia, Google ha presentato il proprio assistente AI, Project Astra, che prende una approccio più diretto e meno giocoso rispetto alla versione di OpenAI. Gli esperti suggeriscono che lo sviluppo di assistenti vocali avanzati basati sull’intelligenza artificiale potrebbe portare a connessioni più profonde tra utenti e macchine, dando luogo potenzialmente a interazioni che creano dipendenza.