La manipolazione della popolazione tramite i social network è diventata un tema molto caldo negli ultimi tempi, grazie soprattutto a eventi come il referendum sulla permanenza del Regno Unito nell’Unione Europea e le ultime elezioni statunitensi. I risultati sconvolgenti sono stati in gran parte attribuiti alla diffusione di notizie false, e da allora l’accusa di condividerle è diventata comune tra schieramenti politici opposti.
Il fenomeno stesso delle fake news è però molto complesso, con aspetti antichi che si intrecciano in nuovi modi grazie alle enormi possibilità portate dalle nuove tecnologie. Questo articolo è fortemente ispirato dalla serie di Destin Sandler, creatore del canale Youtube Smarter Every Day, e dalle considerazioni di Derek Muller nel suo canale Veritasium.
Perché manipolare i social network?
La manipolazione dei social network è la realizzazione moderna di problemi ben più antichi. La diffusione di notizie false per screditare i propri avversari politici o le potenze avversarie è una pratica antica quanto l’essere umano. Ciò che è cambiato nel tempo è la facilità di diffusione delle notizie e il guadagno potenzialmente ricavabile dalla pratica. Come spesso accade per vecchi nuovi problemi, la differenza maggiore che si riscontra tra le passate e le presenti realizzazioni è nelle proporzioni del fenomeno che porta alla nascita di problematiche incomprese, insite negli algoritmi necessari a gestire e piattaforme e nelle politiche di promozioni dei contenuti adottate dai Social Network stessi. Il tutto ruota attorno alle pubblicità online, che sono diventate l’elemento centrale che ha forse cambiato la radice stessa delle fake news. L’esempio più calzante riguardo alle proporzioni è Youtube.
Sulla popolare piattaforma di condivisione video viene caricato ogni minuto l’equivalente di 500 ore di video. Un volume tale di video da rendere impensabile l’eventualità che gli utenti della piattaforma possano cercare in tempo utile i contenuti a cui sono interessati. Gli introiti della piattaforma provengono dagli annunci pubblicitari inseriti nei video, che vengono poi divisi con i creatori di contenuti. Di conseguenza, ogni secondo che un utente passa a cercare video da visionare, e ogni utente che si stufa e lascia la piattaforma, rappresenta soldi perduti per quest’ultima. Se inoltre consideriamo che una parte considerevole di contenuti potrebbe essere naturalmente “disinformatrice” o propagandistica, allo scopo di attirare facili visualizzazioni e ricavi, la piattaforma si ritrova sottoposta ad un livello di complessità aggiunto.
Il problema delle proporzioni del fenomeno non è solo presente nella forma degli enormi volumi di contenuti, ma anche dalle porte aperte dall’automazione. Questa difficoltà è condivisa da tutte le piattaforme, in particolare Twitter. La possibilità di creare e gestire in modo automatico account, chiamati bot, che possono condividere contenuti, mettere like, e seguire profili da persone reali rivoluziona la comunicazione da molti punti vista. Un aspetto è il mere exposure effect: l’effetto psicologico per cui una persona si ritrova molto ben disposta a qualcosa a cui è già stata esposta. Immaginiamo ora di essere su Twitter o Facebook e di avere qualche bot nella nostra rete di contatti, ovviamente a nostra insaputa. Immaginando che questi bot condividano in tempi non troppo lontani uno dall’altro una determinata notizia falsa, la nostra propensione a crederci aumenta a ogni volta che la visioniamo. Questo non è tutto: se qualcuno dei nostri contatti, qualcuno con cui abbiamo familiarità, condivide questo contenuto perché ci ha creduto prima di noi, saremo ancora più propensi a cascarci. Un altro effetto molto problematico è il dirottamento dell’algoritmo che gestisce il newsfeed e/o i contenuti suggeriti. Il traffico generato da soli account automatici tramite like e condivisioni vicendevoli può far sì che l’algoritmo, che tiene in contenuto le statistiche di crescita di un contenuto/post/hashtag, suggerisca questo stesso contenuto a utenti umani, generando così un traffico reale. Di conseguenza, il problema si complica ancora: è necessario stanare i contenuti malevoli prima che raggiungano utenti reali, ovvero il momento in cui è più complicato a trovarli. Lo stesso problema, per intenderci, delle epidemie. Se fosse possibile scovare il cosiddetto paziente zero prima che la malattia si diffonda e agire di conseguenza, l’incidenza di molte epidemie sarebbe tagliata alla radice. A questo si aggiungono inoltre i servizi di vendita di like: utenti reali desiderosi di utilizzare lo stesso meccanismo di dirottamento per ottenere un pubblico ben nutrito e arrivare al successo necessario per vivere con la propria attività sui social.
Eppure i bot non sono sempre entità malevole: ItaliaGuerraBot 2020 per esempio è gestito da un bot che condivide post su un’ipotetica guerra civile italiana che ha creato una community molto affiatata. Infatti i bot che non violano i termini di servizio sono ammessi sui Social Network. Il problema si presenta quando vi è un tentativo di impersonare una persona reale, che sia esistente o meno. Per quanto possa sembrare facile per un essere umano riconoscere un account falso, bisogna sempre ricordarsi che anche le difese dei Social Network devono per forza essere automatiche: Twitter per esempio blocca svariati milioni di account a settimana, uno sforzo impossibile per moderatori umani. Di conseguenza è necessario trovare dei criteri che rendano distinguibile un account falso da uno reale. Purtroppo però questa è una corsa agli armamenti: finché questi comportamenti restano redditizi al netto degli sforzi necessari per aggirare le difese delle varie piattaforme, qualcuno continuerà sempre a farlo. Per rompere le difese dei Social network bastano circa due o tre settimane dall’aggiornamento degli algoritmi di difesa. E questo per gli account più semplici, totalmente automatici. Molto spesso, i creatori di account falsi offrono servizi più costosi: account semi-automatici, che commentano usando frasi scelte o scritte dall’acquirente. Oppure account falsi che hanno dietro un team di persone reali, cosa che pare sia successa addirittura per un articolista iraniano inesistente di Forbes (gli articoli non esistono più ma sono rintracciabili tramite Wayback Machine, che permette di trovare versioni passate di una pagina web) che è stato citato come fonte dal team della Casa Bianca per la sospensione dell’accordo sul nucleare con l’Iran.
La polarizzazione è un cane che si morde la coda
Le proporzioni di tutto ciò ci riportano alla domanda iniziale: cosa è cambiato rispetto alla disinformazione e alla propaganda che conoscevamo già? Il guadagno politico dato dall’influenza dei propri soggetti e dei propri avversari esiste da sempre, ma se un tempo poteva essere un’attività dispendiosa o poco redditizia, oggi genera profitti non indifferenti. Il caso più famoso è quello della fabbrica di fake news nell’attuale Repubblica della Macedonia del Nord. Ragazzini ignari anche di chi fosse Donald Trump o delle implicazioni di Brexit, interessati ad avere le statistiche migliori possibili sui propri articoli per poterne ricavare più denaro possibile. In molti casi simili il filo conduttore è lo stesso, il contenuto politico è poco rilevante rispetto al potenziale virale. A prima vista, la questione si conclude qui. Eppure vale la pena chiedersi quali sono i contenuti con il maggiore potenziale virale: la risposta si trova nel contenuto politico. I post che risponderanno alle esigenze di una o dell’altra parte politica saranno condivisi molto più spesso di contenuti neutri. Bisogna anche notare che è necessario un terreno fertile affinché questo succeda: se il dibattito politico è poco polarizzato, mancherà anche la necessità di contenuti sensazionalistici per confermare le proprie opinioni. Contenuti del genere però aumentano la polarizzazione del dibattito in generale, andando a creare un circolo vizioso. O per chi è alla caccia di profitti, un circolo più che virtuoso. Arriviamo così all’influenza estera. Una potenza estera interessata a minare una democrazia avversaria non ha bisogno di sostenere un particolare candidato durante le elezioni, quanto di minare il dibattito pubblico incentivando notizie ad alto potenziale polarizzante che vanno di solito a minare i candidati più moderati o mainstream. Si sa che oltre a già noti contatti tra il team della campagna elettorale di Trump e la Russia, Vladimir Putin volesse in particolare opporsi all’elezione di Hillary Clinton.
Manipolazione dei Social Network come arma
La conclusione è che sebbene l’effetto politico sia importante, siamo entrati un’epoca in cui l’effetto economico è divenuto estremamente importante. Chiaramente, non si può dire che l’effetto politico sia divenuto minoritario. Un generale dell’esercito americano ha riportato che oltre ai classici teatri di guerra (terra, aria e mare) e al recentemente introdotto spazio, vi sono due teatri che sono emersi grazie all’incremento dell’interconnessione dovuto a Internet.
I due nuovi teatri di guerra sono quello cibernetico e quello della rete sociale umana. Una buona riuscita di un’azione di manipolazione del pubblico di una nazione avversaria al fine di minare il supporto della classe politica prima del conflitto effettivo potrebbe risultare determinante.
Tutto questo va a sommarsi alle sfide del presente, eppure questa è una sfida in cui ognuno di noi può dare il proprio contributo personale. La polarizzazione politica è una piaga onnipresente, e un fenomeno collettivo: sebbene l’azione del singolo possa risultare poco rilevante, se c’è un impegno personale a bloccare contenuti dubbi che non fanno altro che infiammare il dibattito, forse un giorno non sarà più necessario discutere di questo problema.