Immaginate di vedere un video in cui una persona sembra l’ex presidente USA Barack Obama, parla come lui, gesticola come lui, ma in realtà non è lui: qualcuno sta parlando al suo posto, adeguatamente camuffato nella voce e nell’aspetto tanto da non essere più distinguibile dall’originale. Non è la scena di un film distopico, ma è un video effettivamente realizzato da Jonathan Peretti, CEO di BuzzFeed, per mostrare un esempio di video deepfake. Di video deepfake si è tornati a parlare con la decisione presa a inizio gennaio da Facebook: in vista delle presidenziali USA 2020, l’azienda di Menlo Park ha promesso di limitare la diffusione di questo genere di video sulla propria piattaforma, per evitare che possano influenzare l’esito delle elezioni. Sono in molti, però, a dubitare della reale efficacia della soluzione e la questione dei video deepfake sembra non essere così facilmente risolvibile.
Nel nostro Paese, i video deepfake hanno fatto parlare di sé nel mese di novembre 2019, quando Striscia la Notizia ne mandò un esempio in onda, in cui un falso Matteo Renzi insultava Zingaretti e Conte. Lo scopo era quello di far ridere: il problema è che molti lo avranno fatto senza capire di non stare guardando il vero Matteo Renzi. In realtà, però, di questo genere di video se ne parla già da qualche anno. Il termine deepfake viene infatti dallo pseudonimo usato da un utente di Reddit che nel 2017 pubblicò sul sito finti video porno, in modo che al posto dei volti di attori e attrici ci fossero quelli di persone famose. A sua volta, deep richiama la tecnica usata per realizzarli, quella delle deep neural network. La cosa ebbe particolare successo, tanto che l’utente Deepfakes decise di creare un’applicazione apposita – chiamata FakeApp – per permettere anche ad altri di sperimentare il meccanismo ed eventualmente scambiarsi pareri per affinare la tecnica. Insomma, come se si trattasse di un’innocua operazione artistica.
Leggi anche: Populisti che odiano (chiunque) su Facebook.
Ovviamente – e giustamente – nacquero numerose polemiche, che costrinsero Reddit a chiudere il canale dell’utente. Chiuso il canale, non è però stata chiusa la questione: perché sono in molti a temere le conseguenze che l’uso spregiudicato di questi video potrebbe avere sulla società e sulla politica. D’altronde, assistiamo quotidianamente a una politica che sfrutta la Rete – insieme all’ingenuità dei suoi utenti – per diffondere fake news, proprio anche attraverso la manipolazione di materiali video. Un caso che aveva fatto scalpore era stato quello del video in cui la speaker democratica della Camera USA, Nancy Pelosi, aveva difficoltà a parlare in un’intervista, dando l’impressione di essere ubriaca. In quel caso non si trattava un video deepfake, ma era semplicemente stata diminuita del cinquanta percento la velocità di riproduzione del video, in modo da rallentare la parlata della deputata democratica e ottenere così l’effetto desiderato. Considerando l’ampia risonanza mediatica che aveva avuto la vicenda – a causa dell’altrettanto ampio numero di persone che aveva creduto che il video fosse vero – l’uso di deepfake suggerisce uno scenario senz’altro inquietante.
La creazione di video deepfake si avvale delle intelligenze artificiali – comunemente abbreviate in AI – e della tecnica GAN (Generative Adversarial Network). Secondo questo paradigma, ci sono due intelligenze artificiali che lavorano insieme: una crea le immagini false, l’altra le analizza e ne giudica la veridicità. Alla seconda viene “insegnato” quali sono gli elementi che distinguono un’immagine vera da una falsa: in questo modo, mano a mano che la prima AI le invierà immagini, saprà distinguere quelle false da quelle autentiche. Più sarà messa alla prova, più diventerà precisa nel suo compito. Il problema è che lo stesso discorso vale anche per la prima AI: più le sue immagini false verranno scoperte, più diventerà abile nel produrle e nel renderle simili a quelle originali. È proprio su questo paradosso, apparentemente senza soluzione, che che si basa la creazione di video deepfake: nel momento in cui si crea una AI per riconoscere i deepfake, un’altra li migliora e li rende di nuovo indistinguibili.
La decisione di Facebook dovrebbe essere una risposta alle preoccupazioni di molti riguardo al probabile uso che i politici potrebbero farne durante le elezioni presidenziali USA. In un post pubblicato sul blog della piattaforma, l’azienda ha dichiarato che contrasterà video modificati in un modo non evidente a un utente medio e video che sono «prodotti di intelligenze artificiali o apprendimento delle macchine». A suscitare perplessità è la scelta di escludere due categorie di video: quelli creati con intento parodico o satirico e quelli in cui è avvenuto solo uno scambio nell’ordine delle parole o una loro omissione.
Leggi anche: Se lo Stato delega a Facebook il problema del fascismo.
Ulteriori dubbi sull’effettiva utilità della decisione di Facebook derivano dalla notizia che i video identificati come falsi continueranno comunque a circolare. L’azienda ha però sottolineato che saranno diffusi in modo che siano visibili al minor numero possibile di persone e saranno anche accompagnati da un’avvertenza per l’utente. Facebook motiva la scelta presentandola addirittura come strumento di prevenzione: i video circolerebbero comunque sulla rete, anche fuori da Facebook, e sarebbe molto più pericoloso se gli utenti li vedessero per la prima volta senza essere avvisati che si tratta di video deepfake.
Le criticità sono evidenti. Innanzitutto, a creare dubbi è l’indefinitezza dei criteri dichiarati: qual è lo standard che definisce un “utente medio”? È ovvio infatti che l’abitudine a navigare sul web dei più giovani li rende molto più capaci di riconoscere i video modificati rispetto alla parte di popolazione più anziana. Inoltre, non è chiaro in base a cosa un video possa essere considerato parodico e pertanto venire escluso dal controllo di Facebook. E poi, un video parodico, ma comunque video deepfake, non potrebbe forse creare gli stessi danni? Perché non è detto che l’intento satirico venga percepito da tutti, basti vedere quello che è successo con il servizio di Striscia la Notizia. Sembra insomma che Facebook non voglia davvero impegnarsi nella lotta contro le fake news e che accetti passivamente – forse anche per interessi personali – di essere sfruttata come arma di disinformazione di massa.
Leggi anche: Sememeotica, parte ottava: l’opinione pubblica online.
È naturale allora chiedersi come ci si possa difendere da quella che, almeno per i non esperti, appare sicuramente come una tecnologia piuttosto inquietante. Una delle soluzione suggerite è stata quella dell’hashing, in cui si abbinerebbero ai video originali stringhe numeriche che verrebbero perse con l’alterazione dei file. Si è anche parlato di convincere i personaggi pubblici a usare authenticated alibis – letteralmente, “alibi convalidati” – cioè a registrare costantemente ciò che fanno, in modo da poter mostrare la non autenticità di un video deepfake che li riguardasse. Sono però solo delle proposte – soprattutto l’ultima, che renderebbe la situazione ancor più distopica – e nessuno sembra avere trovato la soluzione definitiva. Intanto, quello che possiamo fare noi è non cedere sempre alla tentazione del clic facile, ma sforzarci invece a controllare quale sia la fonte di una notizia o di un video, chiedendoci se non stiamo per condividere l’ennesima bufala.
I fondi di investimento sono strumenti finanziari piuttosto variegati, i quali consentono di disporre di…
Avere a disposizione gli strumenti giusti per navigare la rete in sicurezza è certamente un…
L'iPhone 13 è uno degli smartphone più venduti ancora in questo momento, nonostante tutti gli…
Stiamo vivendo un'era di profondi cambiamenti, legati soprattutto al digitale e alle nuove tecnologie. Ogni…
Whatsapp, con questo metodo potrai trasformare i tuoi vocali in testo e leggerli, invece di…
TikTok ha deciso di introdurre un'importante novità ripresa da YouTube. Un cambio di rotta per…