Segretario                                 logo                                 Folco

Home     Redazione     Msoi Torino     Archivio



Dai deepfake in Cina alla (dis)informazione intelligente

Appena qualche ora dopo essere stata lanciata sul mercato, lo scorso 30 agosto, l’appZao è diventata una delle forme di intrattenimento più popolare e controversa degli ultimi tempi. Gratuita e disponibile sul sistema operativo sviluppato da Apple (iOS), l’applicazione permette di sostituire il proprio volto con quello delle celebrità in scene di film, serie tv, clip musicali o sportive e di condividere online i video modificati. Per vedere la propria faccia protagonista di una scena cult o di un video noto, è sufficiente scegliere tra gli spezzoni proposti, scattarsi un selfie e autorizzare il software all’utilizzo dell’immagine per realizzare il face-swapping.

A sollevare lo scontento degli utenti e della società civile, tuttavia, sono state le politiche sul trattamento dei dati, le quali prevedevano che, accettando i termini e le condizioni di utilizzo, venissero ceduti a Zao pieni diritti sull’uso delle immagini caricate sulla piattaforma. I numerosi commenti negativi apparsi nell’App Store hanno spinto la società produttrice Momo Inc, a scusarsi pubblicamente e a modificare le condizioni d’uso, eliminando la clausola sul libero utilizzo dei dati e promettendo di rimuovere dai server i contenuti caricati e poi cancellati dagli utenti.

Nonostante la controversia, Zao è rimasta una delle app più scaricate in Cina.

Nei giorni successivi, WeChat, l’app cinese di messaggistica istantanea che oggi conta un miliardo di utenti, ha bloccato sulla propria piattaforma la condivisione dei contenuti realizzati con Zao, etichettati come “rischiosi per la sicurezza”. Lo stesso tabloid Global Times, prodotto dal quotidiano ufficiale del Partito Comunista, ha sottolineato i rischi legati alla violazione della privacy dei consumatori e ha dichiarato che il paese sta formulando una sezione speciale delle norme vigenti che si occupi delle dispute legali causate dalle tecnologie di face-swapping. A esprimersi anche Alipay, maggiore piattaforma di pagamenti online nel mondo, la quale ha rassicurato i consumatori che i video realizzati con Zao non possono essere utilizzati per frodare lo Smile to Pay system, sistema di pagamento effettuato attraverso il riconoscimento facciale.

La violazione della privacy e il furto dei dati che ne può derivare non sono gli unici rischi attribuiti alla nuova app. Zao, infatti, è diventata oggetto di dibattito anche a livello internazionale poiché classificata come un’applicazione in grado di produrre deepfake, ovvero di combinare, per mezzo dell’Intelligenza Artificiale, immagini o video originali sovrapponendone altri di diversa provenienza. Si tratta, in pratica, di quella che può essere considerata l’ultima frontiera della disinformazione, poiché permette la manipolazione di contenuti multimediali che appaiono originali agli occhi di chi li riceve.

Il termine è apparso per la prima volta nel 2017 sul sito di intrattenimento Reddit, dove un utente chiamato, appunto, deepfakes ha pubblicato una serie di video erotici nei quali i volti delle attrici venivano sostituiti da quelli di celebrità di Hollywood. Dopo essere stato vietato per fini pornografici da piattaforme come Pornhub o Twitter, l’utilizzo del deepfake si è diffuso soprattutto a scopo di intrattenimento. Per farsi un’idea di come questa tecnica abbia la capacità di alterare completamente la percezione della realtà, si possono guardare i video realizzati dall’utente intervistato dal The Guardian, il quale considera la creazione di video falsi un hobby con cui spera di poter aumentare la consapevolezza del pubblico sulle potenzialità di tale tecnologia.

Oltre ad una forma di svago, però, l’alterazione di contenuti multimediali per mezzo dell’Intelligenza Artificiale rappresenta una minaccia reale alla sicurezza collettiva, per le conseguenze che essa può avere sia nella vita privata delle persone, sia nell’intera società. I rischi dei deepfake, peraltro, si affiancano a quelli prodotti da altre tecnologie di mimesi digitale. Esemplare è in tal senso la frode recentemente riportata dal Wall Street Journal ai danni di un amministratore delegato di una società energetica inglese, il quale ha versato una somma di €220.000 a quello che credeva essere il direttore generale della società madre tedesca. Le indicazioni gli erano state fornite da una telefonata che riproduceva, per mezzo dell’AI, il suono, la tonalità, e persino l’accento tedesco della voce originale del CEO.

Per quanto riguarda i danni alla collettività riconducibili alla diffusione dei deepfake, il timore più diffuso è che essi possano diventare una fonte di disinformazione, ancora più potente delle fake news così come le conosciamo. Oltre a rendere virali contenuti falsi facilmente realizzabili, il rischio è che la tecnica possa essere utilizzata a scopi politici per condizionare i voti degli elettori, soprattutto in vista delle presidenziali americane del 2020. Nel report realizzato da Paul Barret, vicedirettore del New York University Stern Center for Business and Human Rights, i video deepfake sono indicati, infatti, come una delle maggiori minacce dalla quale dovrebbe difendersi l’industria dei social media. È proprio con lo scopo di farsi trovare preparati alle potenzialità dell’AI che Facebook, Microsoft e diversi accademici hanno lanciato il contestDeepfake Detection Challenge‘, finalizzato a sviluppare nuove tecniche di riconoscimento e intercettazione dei video deepfake. A partire dal prossimo ottobre fino a marzo 2020, i partecipanti lavoreranno su un insieme di dati ricavati da video falsi prodotti e diffusi in rete appositamente da Facebook, che ha contribuito a finanziare l’iniziativa con una cifra di $10 milioni.L’utilizzo dell’Intelligenza Artificiale nei social media era già stato segnalato come uno strumento in grado di alimentare la disinformazione online attraverso la creazione sempre più accurata di fake news e la sua distribuzione virale. Se, alla falsificazione delle informazioni date dalla parola scritta, si aggiunge la possibilità di creare facilmente falsi contenuti video e audio, le sfide per il mondo dell’informazione si infittiscono. Le priorità a livello globale per rispondere prontamente al fenomeno del deepfake riguardano, prima di tutto, la ricerca tecnologica per approfondire le tecniche di alterazione di contenuti multimediali e l’abilità nel riconoscerle. In secondo luogo, di fondamentale importanza è anche la dimensione normativa per l’implementazione di leggi che possano regolare l’utilizzo di tale strumento senza minare la libertà di espressione online. Infine, occorre aumentare la consapevolezza degli utenti su questa ormai diffusissima tecnica che, da forma di intrattenimento, può diventare uno mezzo  di disinformazione capace di ingannare i nostri sensi, portandoci a dubitare non più solo di quel che leggiamo, ma anche di ciò che vediamo o sentiamo.