Manipolare un video è sempre più semplice e il deep fake, ovvero la sintesi dell'immagine umana basata sull'intelligenza artificiale, non è più una frontiera irraggiungibile. Al giorno d’oggi, con tecnologie e strumentazioni all’avanguardia, possiamo far dire o fare a una persona in un video qualsiasi cosa a nostro piacimento. A parte qualche esempio di comicità o scherzo, gli scenari che si stanno aprendo sono allarmanti: truffe, cyberbullismo, revenge porn, crimini informatici. Ma non bisogna disperarsi, perché se c’è chi è in grado di creare un fake, c’è anche chi riesce a scoprirlo. Stiamo parlando del Media Lab del DISI, il Dipartimento di Ingegneria e Scienza dell’Informazione dell’Università di Trento, che si occupa da anni dell’analisi forense dei dati multimediali ed è tuttora protagonista di due progetti che hanno l’obiettivo di smascherare e tracciare il deep fake.
I progetti "Unchained" e "Premier"
Sono più di dieci anni che all’Università di Trento si studiano algoritmi in grado di identificare le manipolazioni di file multimediali. Partito con l’analisi delle fotografie, il team di ricercatori è ora passato ai video, con un intento preciso: sviluppare una tecnologia che sia in grado di identificare i deep fake, tracciare la storia delle loro condivisioni sul web (per esempio i social network su cui sono stati pubblicati) e ricostruire la catena di elaborazioni subite dal dato multimediale. Lo sta facendo attraverso due progetti: Unchained (partito a ottobre 2020 e finanziato dalla DARPA - Defense Advanced Research Projects Agency) e Premier (partito a inizio 2020 e finanziato invece dal Miur).
L’Italia e l’Università di Trento si confermano quindi capofila a livello mondiale nello sviluppo di intelligenza artificiale. Lo dimostra il fatto che Unchained, svolto in collaborazione con l’Università di Firenze, sia l’unico bando non statunitense finanziato nel 2020 dall’agenzia governativa del Dipartimento della Difesa degli Stati Uniti incaricata dello sviluppo di nuove tecnologie.
«Noi diciamo che cerchiamo di fare IA contro IA, quindi sviluppare intelligenza artificiale che dia la possibilità di verificare che un certo dato è stato generato lui stesso da un’altra intelligenza artificiale. È un po’ come una battaglia fra intelligenze».
Giulia Boato, professore associato DISI - Unitn
Ricerca e innovazione in Trentino: il futuro è già qui. Scopri di più sul Sistema Trentino.
Come si scopre un deep fake: le fingerprint invisibili
Modificare un video significa alterare alcune proprietà statistiche, che riguardano sia il segnale, sia il formato del file con cui si sta lavorando. Queste modifiche lasciano delle tracce invisibili. La tecnologia sviluppata dai ricercatori dell’Università di Trento ha l’obiettivo di analizzare a ritroso queste tracce, per capire se è stato cambiato qualcosa e in che punto del video è stato cambiato. Nel caso di file multimediali dove è stata per esempio sovrapposta la faccia di una persona ad un’altra, bisogna innanzitutto individuare automaticamente dove si trova il volto che deve essere analizzato. Dopodiché un detector allenato a partire da dati noti (per esempio le espressioni che una persona assume mentre parla o ride, acquisite e studiate dal programma sulla base di video autentici) sarà in grado di dirci se c’è una falsificazione e dove.
Personaggi pubblici, provider, giustizia: l’analisi forense dei video ha molteplici applicazioni.
La prima è quella che si applica a livello governativo, per la verifica dell’autenticità di dati che possono coinvolgere persone famose, capi di stato o politici. Sembra scontato dirlo, ma le parole sbagliate in bocca alle persone sbagliate, se credute vere, possono portare a conseguenze internazionali anche molto gravi. Un altro ambito in cui l’analisi forense ha un ruolo decisivo è quello legale. Sono infatti sempre di più i casi giudiziari riguardanti truffe informatiche, cyberbullismo o revenge porn, dove è necessario verificare se un video è stato modificato e decisivo capirne la provenienza (su che social, per esempio, è stato pubblicato). Un ulteriore campo di azione è infine quello dei provider che, oltre agli organi di controllo come la polizia postale, rappresentano uno dei possibili utilizzatori finali di questa nuova tecnologia. L’auspicio è che anche chi gestisce la diffusione dei contenuti degli utenti, si impegni a trovare soluzioni per condividere solo materiale certificato.
L’idea dei ricercatori è quella di arrivare, un giorno, alla situazione in cui social network come Facebook o Youtube siano in grado di pubblicare solo video veritieri (e abbiano la volontà di farlo).