Vedere per credere? Come i deepfake stanno modificando la nostra visione della realtà
I video falsi estremamente realistici - o deepfake - hanno democratizzato la manipolazione dei contenuti visivi per influenzare l'opinione pubblica e diffondere la disinformazione. Due dei maggiori esperti svizzeri di deepfake spiegano perché è sempre più facile ingannare l'occhio umano.
Abraham Lincoln la usava per apparire più bello e aumentare la sua aura presidenziale, Joseph Stalin e Mao Zedong per eliminare gli avversari politici dalla faccia della storia: la manipolazione delle immagini è vecchia almeno quanto la fotografia.
Ma se un tempo solo i più esperti potevano arrivare a ingannare con maestria l’occhio umano, oggi è diventato un gioco da ragazzi. Basta un software scaricato da Internet, qualche immagine presa qua e là dai motori di ricerca o sui social media e chiunque può creare video falsi da diffondere a macchia d’olio sul Web.
A tanti sarà capitato di imbattersi, per esempio, nel video falso diventato virale di Tom Cruise che gioca a golfCollegamento esterno o della regina Elisabetta che ballaCollegamento esterno durante il suo annuale discorso natalizio. “Ormai, basta una foto per creare un buon deepfake”, dice Touradj EbrahimiCollegamento esterno che dirige il laboratorio di Multimedia Signal Processing del Politecnico federale di Losanna EPFLCollegamento esterno.
Cosa significa “deepfake”?
Il termine “deepfake” è stato coniato nel 2017 e deriva dalla contrazione di “deep learning” (l’apprendimento automatico “profondo” che si basa sull’intelligenza artificiale) e “fake” (falso in inglese).
Da alcuni anni, il team di Ebrahimi si concentra sui deepfake e sullo sviluppo di sistemi all’avanguardia per verificare l’integrità di foto, video e immagini che circolano sul Web. Il deepfake utilizza l’intelligenza artificiale per generare immagini sintetiche così reali da ingannare non solo i nostri occhi, ma anche gli algoritmi usati per riconoscerli. La tecnologia si è dimostrata capace di sovrapporre i volti di due persone diverse per creare un falso profilo o una falsa identità.
Per Ebrahimi e il suo team, combattere i deepfake è una corsa contro il tempo e la tecnologia: la manipolazione delle informazioni è esplosa, fino a diventare un problema di sicurezza nazionale in molte parti del pianeta con l’avvento dei social media. Milioni di persone, così come aziende e governi, possono creare contenuti e accedervi liberamente, ma anche manipolarli.
Paesi come Russia, Cina, Iran e Corea del Nord sono considerati molto attivi nella diffusione di notizia false, anche attraverso l’utilizzo dei deepfake, sia all’interno che all’esterno dei loro confini nazionali, sostiene Ebrahimi. Proprio di recente, per esempio, un membro del Parlamento europeo è stato vittima di un raggiro orchestrato per screditare il team di Alexei Navalny attraverso false video chiamate che imitavano le figure dell’opposizione russa.Collegamento esterno
Guardate come il Politecnico federale di Losanna sta usando l’IA e il deep learning per individuare più efficacemente i video manipolati:
L’occhio vuole la sua parte (di verità)
Uno studio del MITCollegamento esterno ha dimostrato che le notizie false si diffondono fino a sei volte più velocemente di quelle veritiere su Twitter. Questo rende il fenomeno dei deepfake particolarmente preoccupante secondo Ebrahimi. “I deepfake sono un mezzo di disinformazione molto potente perché le persone tendono ancora a credere a ciò che vedono.”
Altri sviluppi
Come gli scienziati svizzeri tentano di smascherare i deepfake
Anche la qualità dei video continua ad aumentare, rendendo sempre più difficile distinguere il vero dal falso. “Uno Stato con risorse illimitate o quasi, può creare già oggi video contraffatti così reali da ingannare persino gli occhi più esperti”, afferma Ebrahimi. Sofisticati software possono riconoscere le manipolazioni, ma il professore dell’EPFL stima che nemmeno le macchine saranno in grado di distinguere i contenuti reali da quelli falsi tra due o cinque anni.
Il laboratorio di Touradj Ebrahimi lavora da vent’anni sui problemi di sicurezza mediatica riguardanti immagini, video, audio e discorsi e sulla verifica della loro integrità. Inizialmente, le manipolazioni erano soprattutto un problema di copyright. In seguito, la questione si è spostata sulla privacy e la video sorveglianza fino all’avvento dei social media, che hanno contribuito a una diffusione massiccia dei contenuti manipolati.
I deepfake sono in grado di aggirare i rilevatori usati per identificare i falsi. Per questo, il laboratorio di Ebrahimi si avvale di un “paradigma” chiamato “provenance technology” per determinare in maniera anonima come un contenuto è stato creato e quale manipolazione è stata applicata. “Ma affinché la tecnologia ‘provenance’ funzioni, deve essere utilizzata da un gran numero di attori sul Web: da Google a Mozilla, Abode, Microsoft fino a tutti i social media, solo per dirne alcuni”, dice l’esperto. “L’obiettivo è quello di trovare un accordo su uno standard JPEG [file di immagine e video] da applicare a livello globale”, aggiunge.
“Sempre più manipolazioni”
All’inizio, i video fasulli erano usati soprattutto per creare clip divertenti di attori e altri personaggi noti o nei videogiochi. Alcuni di questi video possono avere applicazioni positive, sottolinea Ebrahimi. “I deepfake sono già stati usati nella psicoterapia, per alleviare la sofferenza di chi ha perso una persona cara”, dice il professore.
È successo in OlandaCollegamento esterno, dove un genitore in lutto ha creato un deepfake della figlia scomparsa prematuramente per poterla salutare. Il sito di genealogia MyHeritage è in grado di fare qualcosa di simile: attraverso lo strumento DeepNostalgiaCollegamento esterno può “resuscitare” i parenti defunti animando i loro volti nelle fotografie.
Ma non appena la tecnologia ha fatto passi avanti, i deepfake sono diventati uno strumento efficace di denigrazione, specialmente a detrimento delle donne, o un modo per estorcere denaro e manipolare l’opinione pubblica.
I cyber criminali li hanno persino sfruttati per ingannare le aziende e indurle a inviare loro denaroCollegamento esterno, impersonando l’amministratore delegato e fingendo una richiesta di bonifico urgente.
Altri sviluppi
Newsletter
“Al momento sono poche le manipolazioni di questo tipo, ma non appena la tecnologia sarà matura ne vedremo sempre di più”, prevede Sébastien MarcelCollegamento esterno, ricercatore senior presso l’istituto di ricerca svizzero Idiap. Marcel spiega che la tecnologia deepfake attuale consente solo di manipolare i contenuti visivi, ma non l’audio. Le voci, quando non sono prese da altri video, sono impersonate da un professionista.
“I fake audio sono ancora una sfida, ma nel futuro vedremo deepfake ultrarealistici, capaci di riprodurre fedelmente l’immagine e la voce di chiunque in tempo reale.” A quel punto, manipolazioni come la creazione di un falso scandalo su un rivale o un concorrente commerciale, per esempio, diventeranno facilmente possibili.
Sébastien Marcel dirige il gruppo di sicurezza biometrica e privacy presso l’istituto di ricerca svizzero IdiapCollegamento esterno. Si tratta di uno dei pochi laboratori in Svizzera che si occupa della ricerca nel campo della biometria per valutare e rafforzare la vulnerabilità dei sistemi di riconoscimento delle impronte digitali e dei volti. “La ricerca sul riconoscimento facciale e la biometria in genere è ancora piuttosto scarsa in Svizzera”, dice Marcel.
Negare la realtà
Con l’aumento della consapevolezza dei deepfake, l’incertezza su ciò che è reale e ciò che non lo è può avere un effetto indesiderato e creare una cultura di “negazione plausibile” in cui nessuno è disposto ad assumersi la responsabilità perché tutto potrebbe essere falsificato, sostiene la ricercatrice Nina Schick nel suo libro Deepfakes: The Coming Infocalypse.Collegamento esterno
Anche i video reali possono essere scambiati per contenuti manipolati. In Gabon, il presidente Ali Bongo, assente dalla scena pubblica per settimane per via di una malattia, è stato preso per un deepfake e ha provocato l’insurrezione di un pugno di militari golpistiCollegamento esterno.
“I deepfake potrebbero dare a chiunque il potere di falsificare qualsiasi cosa, e se tutto può essere falsificato, allora chiunque può rivendicare la negazione plausibile”, sostiene Schick. L’esperta ritiene che questo sia uno dei maggiori pericoli sociali posti dai deepfake.
Come combattere la cultura delle “fake news”
La buona notizia è che l’Unione Europea non ha preso il problema alla leggera. Progetti di finanziamento come Horizon Europe incoraggiano la ricerca sui video falsi. “Ci aspettiamo di vedere più bandi UE sui deepfake nei prossimi anni”, dice Marcel. A livello tecnico, affrontare i deepfake significa essere proattivi e concentrarsi sulle vulnerabilità dei sistemi. “Ma non è sempre così semplice”, sostiene il ricercatore dell’Idiap. “I processi accademici per ottenere i finanziamenti sono lenti.” Nel frattempo, le tecnologie dietro i deepfake si sviluppano sempre più velocemente.
Ebrahimi e Marcel concordano sul fatto che per combattere le fake news è essenziale creare consapevolezza ed educare la popolazione a sviluppare una coscienza critica e un più profondo senso di responsabilità civica. “Dobbiamo insegnare ai nostri figli a mettere in discussione ciò che vedono su Internet”, dice Ebrahimi, “e a non diffondere indiscriminatamente qualsiasi contenuto”.
Altri sviluppi
La macchina e la morale
In conformità con gli standard di JTI
Altri sviluppi: SWI swissinfo.ch certificato dalla Journalism Trust Initiative
Potete trovare una panoramica delle discussioni in corso con i nostri giornalisti qui.
Se volete iniziare una discussione su un argomento sollevato in questo articolo o volete segnalare errori fattuali, inviateci un'e-mail all'indirizzo italian@swissinfo.ch.