Deepfake: i pericoli dell’intelligenza artificiale

deepfake

Condividi:

Condividi su facebook
Condividi su twitter
Condividi su linkedin
Condividi su whatsapp
Condividi su telegram

Da diverso tempo capita di vedere video assolutamente realistici, ma che sono molto lontani dalla realtà stessa: sembra un controsenso? Sì, ma è proprio questo il fenomeno del Deepfake.

Deepfake può essere tradotto in italiano con “finzione profonda” : è un modo di creare contenuti falsi ma profondamente realistici.

Pensiamo ad esempio a Vladimir Putin che interpreta James Bond in Casino Royale o a Jim Carrey al posto di Joaquin Phoenix in Joker. Sembra assurdo vero?

Ecco un semplice esempio.

Come il termine “deep” ci suggerisce, tutto ciò è possibile grazie ad applicazioni che utilizzano il Deep Learning per processare i fotogrammi.

Le origini di questa tecnologia

Come spesso accade nelle applicazioni di intelligenza artificiale, lo sviluppo di tecniche simili al Deepfake avvenne sia tramite progetti all’interno di community online che grazie a studi accademici.

Sembra incredibile, ma il primo progetto vicino a quello che oggi viene riconosciuto come Deepfake risale al 1997.

Tramite tecniche di machine learning, fu possibile modificare un video di una persona che parla, ma in che modo?

Veniva raffigurata quella persona in modo che sembrasse che stesse pronunciando le parole appartenenti ad una traccia audio diversa da quella originale.

Questo fu il primo sistema automatizzato in grado di modificare le espressioni facciali sulla base della traccia audio.

Negli anni si è sempre cercato di migliorare il realismo di questi contenuti, fino ad arrivare al famoso progetto Synthesizing Obama.

Questo risultato, pubblicato nel 2017, permise di creare video dell’ex presidente Obama che pronuncia parole appartenenti a tracce audio diverse, in maniera molto realistica.

Dunque, questa tipologia di applicazione nasce dallo studio della computer vision, cioè l’intelligenza artificiale applicata alle immagini.

Più nello specifico, sono le reti neurali convoluzionali che apprendono attraverso le immagini e sono in grado di fornire output così realistici.

Leggi anche: Fino a che punto arriverà l’automazione?

Perché il termine Deepfake?

Abbiamo compreso come il termine Deepfake si sposi perfettamente con quanto si vuole descrivere, ma cerchiamo di capirne la vera origine.

Alla fine del 2017, l’utente di Reddit “deepfakes”, insieme ad altri utenti, condivideva sul famoso sito americano i cosiddetti video Deepfake.

Questi video consistevano principalmente in sequenze pornografiche in cui il volto dell’attrice hard veniva scambiato con quello delle celebrità.


Tutto ciò ha scatenato non poche polemiche, causando grossi problemi alle celebrità in questione.

Già da questo, si capisce come questa tecnologia porti con sé un gran numero di rischi..

Fortunatamente ci sono state applicazioni più divertenti e ironiche: ad esempio far interpretare a personaggi della politica film cult, cambiare l’attore protagonista in capolavori del cinema e molto altro.

Per rendere l’idea, in questo video potete vedere una rivisitazione comica della sigla di Willy, il principe di Bel-Air interpretata da Arnold Schwarzenegger, 21 Savage e altri personaggi.

La tecnologia alla base del Deepfake ha anche permesso di inserire nei film scene con attori deceduti o ringiovaniti di molti anni.

Ma come è facile intuire, l’utilizzo improprio di questa tecnologia comporta grossi problemi.

Il pericolo dietro al Deepfake

Per quanto il Deepfake possa essere affascinante, i suoi risvolti negativi sono facilmente individuabili.

Pensiamo al tema delle fake news: se venisse pubblicato un video di una persona autorevole che comunica delle falsità, il rischio di creare false convinzioni attraverso i social è molto elevato.

A questo si associa anche il furto di identità: per questo motivo i social network cercano di impedire la condivisione di video creati tramite Deepfake.

Un’altra domanda da porsi è la seguente: è sempre possibile distinguere un video Deepfake da un video reale? Gli esperti sostengono che oggi è fattibile.

Ma con lo sviluppo tecnologico e il miglioramento delle reti neurali utilizzate per questi scopi, un domani sarà davvero un’impresa.

Tuttavia, il rischio maggiore è quello di ottenere l’effetto opposto sugli utenti.

Oggi infatti ci preoccupiamo del fatto che le persone possano credere a qualsiasi cosa vista in rete.

E se invece, a causa del Deepfake, le persone iniziassero a dubitare di tutto, persino di ciò che vedono con i propri occhi?

Condividi su facebook
Condividi su twitter
Condividi su linkedin
Condividi su whatsapp
Condividi su telegram
Edoardo Di Toma

Edoardo Di Toma

Junior Data Scientist in Vedrai S.p.A. e laureato in Management e Finanza. Ho completato il master in Data Science e Intelligenza Artificiale di Talent Garden Innovation School. Oltre che di data science, sono appassionato di musica, boardgames, calcio e tanto altro.

Iscriviti
Notificami
guest
0 Commenti
Inline Feedback
Vedi tutti i commenti
Neuragate