Deepfake e il rischio di società zero-trust o deep-scepticism

Deepfake e il rischio di società zero-trust o deep-scepticism

Giacomo Maria Arrigo

Deepfake e il rischio di società zero-trust o deep-scepticism

martedì 10 Novembre 2020 - 16:18

Video falsi ma tremendamente realistici. I deepfake rischiano di creare una società piena di sfiducia. E senza verità.

Internet è un terreno insidioso: velocemente emergono novità e velocemente muoiono. E software e tecnologie che ancora non erano neanche state digerite dagli utenti sono subito rimpiazzate da nuove e potenti evoluzioni. Ebbene, oggi gli utenti rischiano di cadere in una trappola congegnata abilmente da una forma di AI (intelligenza artificiale) basata sul deep learning. Si tratta delle deepfake.

In poche parole, il deep learning è il metodo di apprendimento automatico dell’AI. Il deepfake è, come dice la stessa parola, un “falso profondo”, cioè un video che simula il volto o la voce di qualcuno a partire da immagini reali. I tratti facciali della persona da “replicare” sono fedelmente riprodotti, sicché in tempo reale si può impersonare un famoso attore, un politico o un vicino di casa. Il risultato è tremendamente realistico. E crea palpabile confusione nello spettatore.

Tecnologia adoperata inizialmente nell’ambito cinematografico per ricreare le fattezze di attori scomparsi, è subito stata applicata a contenuti pornografici. Famose attrici come Scarlett Johansson sono finite nel mirino di questo squallido gioco, dando vita a non poche confusioni e imbarazzi. Il deepfake ha colpito anche nel campo politico: la speaker della Camera USA Nancy Pelosi è stata manipolata ad arte per far apparire che fosse ubriaca. Anche Mark Zuckerberg è finito nel mirino del deepfake. Il rischio, va da sé, è l’adulterazione dell’opinione pubblica. E anche la massiccia e subdola intromissione nelle campagne elettorali e nelle relazioni internazionali.

Non è un caso che il Rapporto Clusit 2020 considera il deepfake come la maggior minaccia attuale e futura. E infatti, oggi è semplicissimo creare “falsi profondi” grazie ad app sul telefonino e a software sui social network. Come ad esempio Impressions: Face Swap Videos, che rende possibili deepfake fai-da-te. Oppure Avatarify, che permette di creare avatar in tempo reale durante videochiamate su Skype o Zoom. Il programmatore Ali Aliev è anche riuscito ad intrufolarsi in chat assumendo le fattezze di Elon Musk. Con il passare del tempo, i deepfake saranno sempre più realistici, e gli avatar creati da sempre più raffinate intelligenze artificiali saranno in tutto e per tutto conformi all’originale.

Simpatico e divertente, certo. Un modo come un altro per prendersi gioco degli amici. Ma con un rischio non indifferente: quella di creare società zero-trust o deep-scepticism, dove è impossibile distinguere tra realtà e finzione e dove bisogna (è un imperativo) mettere in dubbio anche ciò che si vede con i propri occhi. Il dubbio cartesiano elevato all’ennesima potenza, insomma. E la verità scompare definitivamente.

Le conseguenze di un simile modello di civiltà (che stiamo vedendo nascere) sono difficili da immaginare nella loro interezza ma vanno tutte nella stessa direzione. Che è la seguente: dalla sfiducia nei confronti dei contenuti virtuali si passerà alla sfiducia nelle persone. E in un certo senso tra i due termini c’è un circolo vizioso all’interno del quale già viviamo e che siamo chiamati ora a rompere. E che interpella ciascuno di noi, richiamandoci singolarmente alla responsabilità da esercitare proprio quando abitiamo Internet – perché Internet è un luogo prima di essere uno strumento.

0 commenti

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Commenta
Tempostretto - Quotidiano online delle Città Metropolitane di Messina e Reggio Calabria

Via Francesco Crispi 4 98121 - Messina

Marco Olivieri direttore responsabile

Privacy Policy

Termini e Condizioni

info@tempostretto.it

Telefono 090.9412305

Fax 090.2509937 P.IVA 02916600832

n° reg. tribunale 04/2007 del 05/06/2007