I deepfake sono video falsi che vengono realizzati utilizzando l’intelligenza artificiale e che stanno invadendo sempre di più gli spazi online.
Rendendo ancora più difficile distinguere le notizie vere da quelle false. Trend Micro, tramite Gastone Nencini, spiega come funzionano e come riconoscerli.
Il deepfake per Trend Micro
Come funziona la minaccia del nuovo decennio
Online ci sono molte informazioni affidabili, ma è sempre più critico distinguere le notizie vere da quelle false. E potrebbe essere sempre più difficile a causa dei deepfake: clip audio e video altamente convincenti, basati sull’intelligenza artificiale, che potrebbero letteralmente mettere le parole in bocca a qualcuno che si conosce.
Questo è un grosso problema, per la nostra società ma anche a livello governativo. In effetti, potremmo trovare video di personaggi influenti o ricevere messaggi vocali difficili da verificare.
Come funzionano i deepfake?
I deepfake si chiamano così perché usano il deep learning,
un tipo di intelligenza artificiale, per creare clip audio e video contraffatti che sono difficili da distinguere rispetto a quelli reali.
Per generare un video deepfake, la tecnologia impara a codificare e decodificare due volti separatamente, ad esempio quello di una persona famosa che parla e quello di un’altra persona che dice qualcosa di completamente diverso e magari controverso.
La tecnologia impara come abbattere e ricostruire il primo volto e fonderlo con il secondo. In questo modo le espressioni facciali della persona originale sembrano imitare quelle della seconda persona. La stessa tecnologia può essere usata per sovrapporre ancora un altro volto sulla persona che viene presa di mira per il deepfake.
Passi da giganti
La tecnologia non è ancora del tutto presente, il che rende abbastanza facile individuare la maggior parte dei deepfake, ma i progressi sono rapidi.
Ad esempio, apportando piccole modifiche all’audio in grado da alterare in modo significativo il messaggio principale di un video. Inoltre, i media hanno dimostrato che i deepfake “base” sono già alla portata della gente comune, senza il bisogno di un investimento finanziario ingente o di un particolare know-how tecnologico.
Questa tecnologia può essere utilizzata in maniera positiva, come nel settore della produzione cinematografica, in cui la ripresa di una scena può essere evitata grazie alla tecnologia deepfake, ma la stessa tecnica è già utilizzata in modo negativo per creare contenuti per adulti che sfruttano i volti di celebrità senza il loro consenso.
Considerando questi possibili utilizzi, ci sono grandi preoccupazioni che questa tecnologia possa essere utilizzata regolarmente per far oscillare le elezioni, far crollare i mercati, rovinare le carriere e consentire crimini ancora peggiori.
Come comportarsi
I colossi tecnologici prendono il problema dei deepfake sul serio.
Facebook, YouTube e Twitter hanno recentemente cercato di vietare la distribuzione di questi contenuti, ma resta da vedere quanto bene si possano applicare questi sforzi.
Una possibile soluzione potrebbe essere quella di richiedere che i video siano filigranati e firmati digitalmente, questo potrebbe aiutare la persona media a convalidare il produttore del contenuto. La speranza è avere un modo tecnicamente accurato di segnalare i deepfake prima che vengano pubblicati. Fino a quando soluzioni attendibili non saranno attuabili, l’unica risorsa è essere vigili e aiutare gli altri a fare lo stesso.
I suggerimenti di Gastone Nencini di Trend Micro
Quando si visualizza un contenuto di questo tipo online, si può adottare uno schema di risposta che segue questi tre punti:
- Fermarsi: Non condividere o commentare i video se sembrano in qualche modo sospetti.
- Domandarsi: Da dove proviene il video? La persona è veramente il personaggio che appare nel video? Perché la persona o l’organizzazione lo condivide online?
- Segnalare: Ogni volta che si incontra qualcosa di sospetto online, ignorarlo è sempre un’opzione. Ma se si è davvero preoccupati è opportuno fare una segnalazione al sito o all’app su cui è stato visualizzato.
0 commenti