Alcuni mesi fa, milioni di telespettatori in Corea del Sud erano sintonizzati sul canale MBN per ricevere le ultime notizie sul Covid-19.
La conduttrice della trasmissione, Kim Joo-Ha, ha iniziato a parlare degli argomenti della giornata.
Eppure questo particolare bollettino era tutt’altro che normale, poiché Kim Joo-Ha non era “reale”. La sua immagine era stata sostituita da una versione “deepfake“, una copia generata al computer che mira a riflettere perfettamente la sua voce, i suoi gesti e le sue espressioni facciali.
Gli spettatori erano stati informati in anticipo che ciò sarebbe accaduto. Mentre alcune persone erano stupite di quanto tutto fosse realistico, altri hanno detto di essere preoccupati che la vera Kim Joo-Ha potesse perdere il lavoro.

Nonostante le connotazioni negative che ruotano intorno al termine colloquiale “deepfake” (le persone di solito non vogliono essere associate alla parola “fake”), la tecnologia è sempre più utilizzata a livello commerciale.
Più comunemente chiamati video generati dall’intelligenza artificiale, o media sintetici, l’utilizzo sta crescendo rapidamente in settori quali diffusione di notizie, intrattenimento e istruzione, con la tecnologia che diventa sempre più sofisticata.
Uno dei primi utenti commerciali è stato Synthesia, un’azienda con sede a Londra che crea video di formazione aziendale basati sull’intelligenza artificiale, per aziende come la società di pubblicità globale WPP e la società di consulenza aziendale Accenture.

“Questo è il futuro della creazione di contenuti“, ha dichiarato Victor Riparbelli, amministratore delegato e cofondatore di Synthesia.
Per realizzare un video generato dall’intelligenza artificiale utilizzando il sistema di Synthesia, bisogna semplicemente scegliere un avatar e digitare la parola che si desidera comunicare.
Riparbelli afferma che ciò significa che le aziende globali possono facilmente realizzare video in diverse lingue, ad esempio per i corsi di formazione interni.
“Supponiamo che tu abbia 3.000 magazzinieri in Nord America“, dice. “Alcuni di loro parlano inglese, ma alcuni potrebbero avere più familiarità con lo spagnolo. Se devi comunicare loro informazioni complesse, un PDF di quattro pagine non è un ottimo modo. Sarebbe molto meglio fare un video di due o tre minuti, in inglese e spagnolo. Se si dovesse registrare ognuno di quei video, si tratterebbe di un lavoro enorme. Ora possiamo farlo grazie a minori costi di produzione e con un minore impiego di tempo. Questo esemplifica più o meno come la tecnologia è usata oggi. “
Tuttavia, c’è chi rimane scettico a riguardo e molte aziende preferiscono non investire nel deepfake, prediligendo sempre versioni più “umane”.
I deepfake, infatti, fanno parte del problema più ampio della disinformazione che mina la fiducia nelle istituzioni e nell’esperienza visiva, per cui molte persone non si fidano più di ciò che vedono e sentono online.
Bisognerebbe, tuttavia, cogliere il lato “buono” di questa tecnologia, come tradurre film in lingue diverse o creare video educativi coinvolgenti.

Uno di questi usi educativi dei video generati dall’intelligenza artificiale è presso la Shoah Foundation della University of Southern California, che ospita oltre 55.000 testimonianze video di sopravvissuti all’Olocausto.
Questo progetto consente ai visitatori di porre domande che sollecitano risposte in tempo reale da parte dei sopravvissuti nelle interviste video preregistrate.
In futuro, questa tecnologia consentirà ai nipoti di conversare con le versioni AI di parenti anziani deceduti?