Dentro la “fabbrica di troll” russi
Quella con sede a San
Pietroburgo, che impiegò centinaia di troll per diffondere bufale e
condizionare la campagna elettorale americana del 2016 e non solo
Il Post -martedì 20 febbraio 2018
Un post della pagina Facebook “Army of Jesus” creata dai troll russi
durante la campagna elettorale americana del 2016 0
Qualche anno fa a San Pietroburgo, in Russia, aprì
l’Internet Research Agency, più nota come “fabbrica di troll”, che secondo un’indagine del
dipartimento della Giustizia statunitense interferì nella campagna
elettorale statunitense del 2016.
Formata inizialmente da circa 25 impiegati, l’Internet
Research Agency nacque con lo scopo di usare Internet, in particolare i social
network, per creare e diffondere notizie false. Prima si occupò della guerra in
Ucraina e della propaganda in Russia, poi con l’inizio della campagna
elettorale americana cominciò a operare per minare la fiducia nel sistema
democratico ed elettorale statunitense, alimentare le divisioni tra gruppi
ideologici e appoggiare la candidatura a presidente di Donald Trump, a discapito
di quella di Hillary Clinton. Secondo le accuse di molta stampa occidentale e
del sistema giudiziario statunitense, l’operazione della “fabbrica di troll” di
San Pietroburgo, costata milioni di dollari, fu avviata da Yevgeny Prigozhin,
chiamato “lo chef del Cremlino” e con legami con il presidente russo Vladimir
Putin, e raggiunse risultati a suo modo notevoli.
PUBBLICITÀ
Negli ultimi giorni sono venuti fuori nuovi dettagli
sul funzionamento della “fabbrica di troll” di San Pietroburgo: sia per un
documento di 37 pagine presentato dal procuratore speciale statunitense Robert
Mueller, a capo dell’indagine sulle presunte interferenze russe nella campagna
elettorale americana del 2016, sia per le testimonianze di ex impiegati della
fabbrica riportate da alcuni importanti giornali americani.
Le indagini di Mueller e le inchieste giornalistiche
hanno mostrato come il lavoro della “fabbrica di troll” non si fermasse mai:
gli impiegati – poche decine all’inizio, diverse centinaia poi – lavoravano
giorno e notte per creare account di Twitter e Facebook con i quali far
circolare notizie false e per organizzare eventi e manifestazioni dovunque
fosse utile e possibile. All’interno della fabbrica c’erano diverse sezioni:
per esempio c’era quella dei troll dedicati al pubblico russo e quelli che
invece lavoravano in inglese, per entrare in contatto direttamente con gli
elettori americani.
Aleksei, uno dei primi 25 troll assunti dall’Internet
Research Agency, ha
raccontato al New York Times che il suo primo incarico fu scrivere
un documento sulla “Dottrina Dulles”, cioè su una teoria cospirazionista molto
nota in Russia secondo la quale negli anni Cinquanta l’allora direttore della
CIA, Allen Dulles, avrebbe cercato di distruggere l’Unione Sovietica
corrompendo i suoi valori morali e le sue tradizioni culturali. Aleksei,
affidato al dipartimento che si rivolgeva ai russi, ha detto che a tutti i
nuovi impiegati veniva chiesto di creare tre account su Live Journal, una nota e popolare
piattaforma dove viene caricato un po’ di tutto, da usare poi per diffondere
materiale e informazioni false, soprattutto sulla guerra in Siria, su quella in
Ucraina orientale, sulla politica russa e sul presunto ruolo degli Stati Uniti
nella diffusione del virus ebola (una delle tante teorie cospirazioniste che
circolano sugli Stati Uniti, e che sono false). Dopo che veniva pubblicato un
contenuto, ha raccontato Aleksei, quel post veniva ripreso dalla miriade di
account falsi creati soprattutto su Facebook e faceva decine di migliaia di
visualizzazioni.
Secondo Marat Mindiyarov, ex troll sentito
dal Washington Post, lavorare nella fabbrica di San Pietroburgo era
come stare dentro al libro 1984 di George Orwell, «un posto dove
devi scrivere che il bianco è nero e che il nero è bianco». Mindiyarov ha
raccontato per esempio che ai tempi del crollo del valore
del rublo, la moneta russa, le indicazioni erano di raccontare «quanto la
vita fosse fantastica, quanto forte fosse il rublo, questo tipo di assurdità».
I turni di lavoro erano di 12 ore, dalle 9 di mattina alle 9 di sera: «Arrivavi
e passavi tutto il giorno in una stanza con le tapparelle chiuse e 20 computer.
C’erano diverse stanze su quattro piani. Era come una catena di montaggio,
tutti erano impegnati, tutti stavano sempre scrivendo qualcosa. Avevi la sensazione
di andare in fabbrica, non in un posto creativo». Mindiyarov ha raccontato
anche che a un certo punto gli fu proposto di andare a lavorare nella sezione
che si occupava della propaganda per gli americani: lui accettò di provare –
avrebbero pagato il doppio – ma non superò l’esame preliminare previsto, perché
non aveva una conoscenza perfetta dell’inglese: ed era importante che nessuno
si accorgesse che era uno straniero, gli dissero.
Per influenzare la campagna elettorale americana,
l’Internet Research Agency adoperava soprattutto tre strumenti: account falsi
sui social media, organizzazione di manifestazioni reali e promozione di
pubblicità online con contenuti politici. Gli account – come per esempio
“Tennessee GOP”, ancora
parzialmente reperibile – si occupavano dei temi più caldi della campagna
elettorale, tra cui immigrazione, Islam e diritti dei neri. Una delle cittadine
russe accusate dall’indagine guidata da Mueller, Irina Viktorina Kaverzina,
scrisse una email a un suo familiare dicendogli: «Ho creato tutte queste
fotografie e post, e gli americani hanno creduto che fossero scritti dalla loro
gente».
Alcuni di questi account, poi, promuovevano
manifestazioni e proteste organizzate dalla stessa fabbrica di troll sotto
falso nome. Il New
York Times ha individuato almeno 8 manifestazioni pianificate e promosse
dall’Internet Research Agency tra il giugno e il novembre 2016: a New York,
Washington, Charlotte, ma anche in alcune città della Florida e della
Pennsylvania. In diverse occasioni queste manifestazioni furono organizzate in
coordinamento con lo staff della campagna elettorale di Trump: non ci sono
prove però che i collaboratori di Trump sapessero a chi appartenevano veramente
questi account.
La reazione degli impiegati della fabbrica dei troll,
dopo averci lavorato per uno o più anni, non fu uguale per tutti. Alcuni, come
Aleksei sentito dal New York Times e Mindiyarov sentito dal Washington
Post, decisero di dimettersi perché non sopportavano più quello che
facevano. Altri invece no. È il caso di Sergei – un altro ex troll russo che ha
parlato con il New York Times – che ha raccontato che lavorando nella
fabbrica è diventato «più patriottico». Ha detto di avere capito quanto la
Russia sia costretta a combattere ogni giorno con le potenze straniere,
soprattutto con gli Stati Uniti, per ottenere il controllo delle risorse
naturali. «Ho cominciato a essere cosciente delle ragioni dei problemi del
mondo. Ora credo che il male sia l’élite che controlla il sistema della Federal
Reserve [la banca centrale americana] negli Stati Uniti», ha detto Sergei, che
ha aggiunto di essere diventato un uomo nuovo e di avere cambiato idea su
moltissimi fatti del mondo.
Una persona falsa, letteralmente
Jenna Abrams aveva
70mila follower su Twitter, era popolare e veniva citata dai grandi giornali
americani: solo che se l'erano inventata i russi
·
Il Post 3 novembre 2017
Dal 2014 un profilo di Twitter, uno di Medium, un sito
e un account di posta di Gmail sono stati creati da dipendenti del governo
russo per costruire una persona finta, una giovane donna americana, che
partecipasse online al dibattito politico degli Stati Uniti, contribuendo a
influenzarlo. È una delle cose scoperte durante le indagini della commissione
intelligence della Camera statunitense, che sta indagando sulle interferenze
della Russia nella scorsa campagna elettorale: il suo profilo Twitter è citato in
un elenco di account fasulli diffuso dalla commissione. Questa “donna”
era talmente credibile ed efficace nei suoi messaggi, e diventò così popolare
online, che moltissimi siti autorevoli tra cui quelli del New York Times
e di BBC l’hanno citata in articoli su diversi argomenti, dalle
ascelle non depilate ai selfie senza vestiti di Kim Kardashian, dal “manspreading”
ai missili balistici. The Daily Beast ha
ricostruito la sua storia e il modo in cui i suoi messaggi sono stati
ripresi online.
Il nome di questa persona inventata era Jenna Abrams.
Ora i suoi account sono stati chiusi. La sua esistenza e il suo successo negli
ultimi anni mostrano il livello di sofisticazione a cui sono arrivati i
“creatori di troll” usati dal governo russo per influenzare la politica
statunitense. Il suo profilo è uno dei 2.752 che sono stati chiusi perché
Twitter ha scoperto che erano gestiti da un’organizzazione legata al governo
russo, così come 36mila bot creati per
ritwittare automaticamente contenuti propagandistici.
Un tweet del profilo Jenna Abrams ripreso con altri
due dal sito di BBC in un suo articolo sulla depilazione delle ascelle del
2015: il tweet non esprimeva un’opinione controversa, diceva semplicemente che
la depilazione è una pratica igienica (BBC)
Le indagini fatte negli ultimi anni sui profili come
quello di Abrams hanno svelato che vengono creati da cosiddette “fabbriche di
troll”, la più famosa delle quali è nota come “Internet Research Agency” e in
passato veniva chiamata “Glavset”. Nei fatti queste “fabbriche” sono degli
uffici in cui persone che conoscono bene l’inglese seguono la politica e
l’attualità americane e quando succede qualcosa di cui tutti parlano – ad
esempio un attentato – si mettono a scrivere dei post usando diversi profili
sui social network, allo scopo di influenzare il dibattito. A questi profili
corrispondono persone inventate: in alcuni casi non è impossibile intuirlo, in
altri, come quello di Jenna Abrams, è impossibile per gli altri utenti dei
social network. Poi i bot, creati sempre dalle “fabbriche di troll”,
contribuiscono a diffondere i messaggi di questi profili fasulli.
Non tutte le “fabbriche di troll” si occupano degli
Stati Uniti: la giornalista russa Ludmila Savchuk ha lavorato per due mesi
sotto copertura in una di queste dedicata ai social network russi e ha
raccontato al New York Times come funzionano.
Sia i bot che i profili di troll creati in Russia
possono essere identificati da chi gestisce i social network andando a vedere
da dove sono stati messi online. Twitter non ha spiegato con precisione come
siano stati identificati i profili come quello di Jenna Abrams durante la relativa
udienza alla commissione intelligence della Camera, in cui è stato
semplicemente detto che sono stati analizzati uno a uno dopo essere stati
«identificati come legati all’Internet Research Agency grazie a informazioni
ricevute da fonti terze».
Il profilo Twitter di Abrams aveva circa 70mila
follower e inizialmente non pubblicava messaggi su temi molto controversi, né
contenuti associabili a un troll, ma plausibili opinioni di una giovane donna
americana che dice quello che pensa e pensa cose sensate, e che lo dice
abbastanza bene da essere ritwittata e citata dagli articoli di costume. Per
esempio un suo tweet fu incluso in un articolo del Telegraph intitolato “I
15 tweet più divertenti di questa settimana”; un sito per ragazze ha
dedicato un intero
articolo a un suo tweet di critica a Kim Kardashian. Il tipo di messaggi
diffusi dal profilo sono cambiati una volta che il numero dei suoi follower era
cresciuto e allo stesso tempo si avvicinavano le elezioni presidenziali negli
Stati Uniti. Pur avendo scritto nella sua biografia «Calmatevi, non sono
pro-Trump. Sono solo pro-buon senso», il profilo cominciò a pubblicare tweet in
favore di Donald Trump, sull’immigrazione o sulla segregazione razziale. L’ex
consigliere per la sicurezza nazionale Michael Flynn ritwittò un suo tweet
almeno una volta.
The Daily Beast dice che il tweet più
virale di Jenna Abrams in questo filone pro-Trump era stato quello
pubblicato lo scorso aprile, quando negli Stati Uniti si discuteva già dei monumenti
sudisti:
«Alle persone che odiano la bandiera confederata. Lo
sapevate che la bandiera e la guerra non riguardavano la schiavitù, ma solo i
soldi?».
A questo tweet hanno risposto in moltissimi, tra cui
giornalisti, storici e persone famose, per smentirne il contenuto. Il
conduttore radiofonico afroamericano Al Letson continua ad avere come tweet
fissato la sua risposta a quel tweet: «È molto facile dire che la Guerra Civile
riguardava il denaro quando i tuoi antenati non erano la valuta di scambio». La
risposta dello storico Kevin Kruse – «No, la Guerra Civile riguardava la
schiavitù. Cordialmente, gli storici» – è stata ritwittata 41mila volte. Molte
altre persone, soprattutto con idee di estrema destra, nel frattempo
ritwittavano il messaggio di Abrams e se la prendevano con chi lo criticava.
Oltre al tweet sulla Guerra Civile, Jenna Abrams era
anche l’autrice di un post su Medium intitolato “Perché dobbiamo tornare alla
segregazione razziale” (è stato cancellato ma si può vedere qui)
e di un’immagine di olive nere e verdi che prendeva in giro il movimento Black
Lives Matter e che fu ripresa
da CNN. Persone autorevoli come Michael McFaul, l’ex
ambasciatore degli Stati Uniti in Russia ed esperto di propaganda russa, hanno
litigato più volte con il profilo di Jenna Abrams e anche un “vero” troll
americano come l’utente Ironghazi
– che non vuole che si conosca la sua vera identità ma ha parlato con The
Daily Beast – l’aveva scambiato per il profilo di una persona reale quando
l’aveva presa in giro per il suo tweet sulla Guerra Civile. Ironghazi pensava
che Abrams fosse vera per il modo in cui mescolava cose a volte divertenti,
spesso stupide e quasi sempre arrabbiate.
L’elenco dei siti che secondo la ricostruzione di The
Daily Beast hanno dato spazio ai messaggi del profilo di Jenna Abrams è
molto lungo: ci sono siti legati al governo russo come Russia Today e Sputnik
e siti di estrema destra come Breitbart, ma anche molti siti di
pubblicazioni affidabili, tra cui USA Today, Sky News,
il Washington Post, Quartz, il Times of India, BuzzFeed
e il New York Times. Secondo The Daily Beast: «La diffusione
capillare di Abrams nei siti di news americani mostra quanto sia grande
l’impatto della “fabbrica di troll” della Russia nel dibattito americano
durante la campagna elettorale del 2016 – e fa capire come gli argomenti della Russia
siano potuti filtrare nei media di massa americani senza che un singolo dollaro
fosse speso in pubblicità».
Cosa succede quando i troll filorussi prendono di mira qualcuno
Una giornalista finlandese da due anni riceve minacce e intimidazioni per avere indagato sui loro rapporti con Putin
https://www.ilpost.it/2016/06/04/troll-filorussi/
Il Post 4 giugno 2016
Jessikka Aro ha 35 anni, è una giornalista della televisione
pubblica finlandese Yle Kioski
e dal 2014 riceve ogni giorno minacce e insulti su Internet da un agguerrito
gruppo di troll
che sostengono il governo russo. È stata accusata di essere un’informatrice
della NATO, di avercela con la Russia e la sua popolazione, di avere
spacciato droga: contro di lei sono state organizzate campagne molto dure online,
sostenute da utenti quasi sempre anonimi e che si sospetta siano finanziati o
per lo meno incentivati dal governo russo. La sua storia è stata raccontata dal
New York Times, con
un articolo in prima
pagina su quello che è stato definito “l’esercito dei troll della Russia”.
Quando un paio di anni fa chiese agli spettatori del suo
programma di raccontare le loro esperienze con i troll filorussi, Aro non
immaginava che la sua vita sarebbe “diventata un inferno”, come ha
raccontato al New York
Times. Le cose peggiorarono ulteriormente nel 2015, quando Aro andò
a San Pietroburgo per scoprire meglio come si organizza uno di questi gruppi di
troll. Raccontò che in un grande ufficio poche persone creavano account falsi
di ogni tipo sui social network, pubblicando commenti a favore della Russia sui
siti di news, soprattutto su quelli in cui si parla della guerra in
Ucraina. Alcuni attivisti filorussi si riunirono davanti alla sede di Yle a Helsinki per protestare
contro Aro, accusando la stessa tv pubblica di essere un’organizzazione di
troll.
Campagne sui social network molto agguerrite, talvolta con
violenze verbali, sono frequenti e riguardano i temi più disparati: ma negli
ultimi anni quelle a favore del governo russo sono diventate preponderanti,
soprattutto in Europa. La stessa NATO e l’Unione Europea hanno riconosciuto il problema
e incaricato diversi gruppi di lavoro di tenere sotto controllo i troll,
collaborando con social network e altri servizi online per identificare gli
account più molesti e se necessario farli sospendere. Dato che
confinano con la Russia, e hanno a che fare con le ambizioni di Putin di
espandere la sua area di controllo, i finlandesi sono diventati tra i
principali obiettivi di queste campagne portate avanti dai troll
filorussi.
La Finlandia non fa parte della NATO, ma dopo la guerra in
Ucraina e le conseguenti pressioni sugli stati baltici ha iniziato ad
avvicinarsi all’alleanza militare guidata dagli Stati Uniti, offrendo maggiore
collaborazione. Tra le possibilità valutate e discusse c’è anche un ingresso
della Finlandia nella NATO: la questione è molto dibattuta nel paese, con
l’opinione pubblica divisa tra chi vuole mantenere maggiore autonomia e chi si
sentirebbe più al sicuro sotto le tutele della NATO. I troll filorussi
attaccano chi è favorevole a un avvicinamento della Finlandia alla NATO: la loro
strategia è rispondere sui social network a chi dice cose contro la Russia,
diffondere informazioni spesso diffamatorie sulla loro reputazione, costruire
storie false intorno ad attivisti e associazioni con centinaia di commenti sui
siti di informazione e creando confusione.
L’obiettivo dei troll è fare in modo che la Finlandia resti fuori
dalla NATO, ha spiegato Saara Jantunen, ricercatrice dell’esercito finlandese:
“Riempiono lo spazio dell’informazione con così tanti abusi e teorie
del complotto che anche le persone sane di mente perdono la testa”.
Se non trovano basi solide per screditare qualcuno, provano a esasperarlo fino
al punto in cui non se la sente più di dire la sua online. “Ti entrano nella
testa e inizi a pensare: se faccio questa cosa, poi i troll che cosa faranno?”,
ha spiegato Aro.
Da quando si occupa del fenomeno, Aro ha ricevuto un gran numero
di commenti anonimi e messaggi su Facebook da account fasulli. Gli
autori degli insulti dicono di esercitare semplicemente il loro diritto di
libertà di parola e negano di ricevere denaro dal governo russo per farlo.
Tenere sotto controllo tutte le falsità che vengono pubblicate è praticamente
impossibile, così come organizzare iniziative per fare conoscere la verità.
L’Unione Europea dallo scorso autunno pubblica ogni settimana un elenco di miti
e falsità diffuse online dai troll, attraverso il sito “Disinformation
Review”. L’iniziativa non è molto conosciuta e non si è rivelata efficace
nel contrastare i troll.
Aro conosce comunque l’identità di almeno uno dei suoi principali
critici, perché ha deciso di rinunciare all’anonimato. Si chiama Johan Backman,
è un convinto sostenitore delle politiche del presidente russo Vladimir Putin e
passa molto tempo a Mosca, dove viene invitato spesso nelle trasmissioni
controllate dal governo. Si definisce un “difensore dei diritti umani” ed è
rappresentante della Repubblica Popolare di Donetsk, lo stato non riconosciuto
che è stato proclamato nel 2014 dalle autorità separatiste ucraine filorusse.
Dice di non ricevere finanziamenti dalla Russia e di non avere preso parte a
una “guerra dell’informazione” contro Aro. È però convinto che sia la Russia al
centro di una campagna di disinformazione organizzata dai paesi occidentali e
di cui Aro fa parte.
Le minacce e le intimidazioni nei confronti di Jessikka Aro non si
sono comunque limitate alle campagne online. Poco dopo avere iniziato la
sua inchiesta giornalistica nel settembre del 2014, Aro ricevette una
telefonata da un numero con prefisso ucraino. Rispose ma non sentì nessuna
voce: solo un colpo di pistola. Nei giorni seguenti le furono inviati SMS ed
email che la definivano una “puttana della NATO”.
All’inizio di quest’anno il sito MVLehti – che si occupa di Finlandia ma ha
sede in Spagna – ha pubblicato i documenti di una presunta condanna
ricevuta da Aro nel 2004 per il consumo di anfetamine, che le costò una multa
di 300 euro. L’articolo
che ne dava conto era intitolato “Si è scoperto che l’informatrice della NATO
Jessikka Aro è una spacciatrice di droga” e mostrava, tra le altre cose, alcune
fotografie di Aro scattate mentre era in una discoteca di Bangkok, durante una
vacanza in Thailandia. La notizia dello spaccio di droga era inventata: ha portato
alla pubblicazione di una lettera aperta firmata dai direttori di 20 testate
finlandesi per denunciare pratiche che “avvelenano il dibattito pubblico”
attraverso la diffamazione e la pubblicazione di falsità. La polizia finlandese
ha avviato un’indagine con l’accusa di incitazione all’odio e persecuzione nei
confronti del sito.
Il fondatore di MVLehti,
Ilja Janitskin, ha detto di non avere nessun legame con la Russia, fatta
eccezione per il suo cognome. Al New
York Times ha spiegato di essere più un sostenitore di Donald Trump
che di Vladimir Putin, e di essersi interessato ad Aro dopo che la giornalista
finlandese aveva accusato il suo sito di fare propaganda a favore della Russia.
Come Backman, ha negato di ricevere finanziamenti dal governo russo per le sue
attività.
L’influenza russa in Italia sta crescendo?
Lo scrive il New York Times, secondo cui la Russia sta occupando il vuoto politico lasciato dagli Stati Uniti, anche grazie a partiti come il Movimento 5 Stelle e la Lega Nord
Il Post - 30 maggio 2017
Lunedì il New York
Times ha dedicato un
articolo all’influenza politica che la Russia sta estendendo in Italia.
L’alleato principale della Russia in Italia, scrive il New York Times, è il
Movimento 5 Stelle, che è passato dal «condannare le violazioni dei diritti
umani di Putin» a «esaltare la sua leadership»: ma ci sono anche altri
partiti, per esempio la Lega Nord, che negli ultimi mesi si sono avvicinati
sempre di più al governo russo e difendono di frequente le sue azioni e
posizioni.
Secondo il New
York Times, uno dei motivi principali della crescita dell’influenza
russa in Italia è il cattivo stato delle relazioni tra l’Italia e gli
Stati Uniti. Trump non sembra aver intenzione di aiutare l’Italia in
questioni che il nostro paese considera molto importanti, come la
situazione in Libia: e insiste perché l’Italia aumenti le spese
militari in base agli impegni presi con la NATO (la famosa
questione del “2 per cento”), una scelta che sarebbe impopolare per
qualsiasi governo. Quando minaccia la Germania per le sue eccessive
esportazioni, poi, Trump minaccia implicitamente anche l’Italia, che con gli
Stati Uniti ha una bilancia commerciale positiva per diversi miliardi: cioè
esporta beni negli Stati Uniti più di quanti ne importi dagli Stati Uniti.
Inoltre l’ambasciata americana in Italia è da mesi senza ambasciatore, un segno
evidente di quanto poco prioritaria Trump ritenga l’Italia, scrive il New York Times.
È invece molto attivo Sergey Razov, l’ambasciatore russo, che a
Villa Abamelek, sede dell’ambasciata russa a Roma, organizza cene e
ricevimenti e ha in programma per il prossimo mese una grande festa per
celebrare la festa nazionale russa. Razov, scrive il New York Times, ha rifiutato
di farsi intervistare, ma è molto bravo nel tessere relazioni. Le sue attività
vanno dall’organizzare concerti per i terremotati a visitare gli amministratori
delle aziende italiane danneggiate dalle sanzioni russe: e questo non è un
argomento su cui è difficile farsi ascoltare, per Razov.
Le contro-sanzioni con cui la Russia ha risposto alle sanzioni
statunitensi ed europee (approvate dopo l’aggressione russa in Ucraina)
hanno colpito in particolare il settore agricolo e della trasformazione
alimentare, due comparti che possiedono una forte rappresentanza associativa e
politica. Esistono diverse stime sui danni arrecati dalle sanzioni e dalle
contro-sanzioni russe, ma si parla in ogni caso di centinaia di milioni di euro
l’anno: associazioni come Coldiretti e partiti politici come la Lega Nord
ripetono spesso che le sanzioni alla Russia sono state un errore e che è
necessario tornare ad avere buoni rapporti con il presidente Putin. Matteo Salvini
è probabilmente uno dei leader politici più vicini alla Russia: negli ultimi
mesi più volte è stato in Russia, sia in visita ufficiale
che come privato cittadino.
Il governo italiano si è mostrato quasi altrettanto sensibile a
questo tipo di pressioni. Sia l’ex presidente del Consiglio Matteo Renzi che il
presidente della Repubblica Mattarella hanno visitato la Russia nel corso
dell’ultimo anno. Tra i paesi europei l’Italia è considerata uno dei più vicini
alla Russia – «il ventre molle dell’Europa», ha scritto il New York Times – e il
governo italiano si è più volte espresso contro le sanzioni alla Russia, anche
se non è mai arrivato a incrinare il fronte unitario che fino a oggi ha portato
al periodico rinnovo delle sanzioni. «Gli effetti dell’influenza russa si fanno
sentire in Italia, con i politici locali sempre più incerti nel sostenere la
linea dura chiesta dal resto dell’Europa in seguito all’invasione
dell’Ucraina», ha scritto il New
York Times.
Anche il Movimento 5 Stelle negli ultimi anni si è mostrato sempre
più vicino alla Russia. In un recente incontro in cui alcuni suoi esponenti
hanno presentato il programma di politica estera del Movimento, il deputato
Manlio Di Stefano ha descritto la Russia come «un partner strategico
ingiustamente punito» e gli Stati Uniti «come un alleato prepotente», scrive il
New York Times. Gli
esponenti del Movimento 5 Stelle sono invece molto delusi da Trump, e
il metro su cui misurano il loro apprezzamento per il presidente americano
sembra essere sostanzialmente il suo rapporto con la Russia: «Ha detto che
voleva migliorare le relazioni con la Russia, e poi ha iniziato a bombardare»,
ha detto Di Stefano al New York
Times, riferendosi al bombardamento americano contro l’esercito
siriano, alleato della Russia.
Oltre alla diplomazia visibile, scrive il New York Times, fatta di
incontri internazionali e di quelli organizzati dall’ambasciatore, alcuni
temono poi che la Russia stia portando avanti anche un lavoro dietro le quinte,
un lavoro che ha al centro la diffusione di notizie false tramite i media
controllati dal Cremlino. Celia Kuningas Saagpakk, ambasciatrice dell’Estonia
in Italia ed ex dipendente del ministero degli Esteri, dove studiava la
propaganda russa in Ucraina e altrove, dice che la Russia ha investito molto in
Italia. Il governo russo per esempio ha creato Sputnik Italia, un sito che diffonde propaganda
russa e notizie false in italiano (per esempio: “Trovata
foto della Merkel con il presunto kamikaze di Bruxelles”).
Il legame tra Movimento 5 Stelle e Russia si è rafforzato anche in
questo campo. Gli aggregatori di notizie di proprietà della Casaleggio
Associati, la società che gestisce gran parte delle attività del M5S,
riprendono sistematicamente le notizie di Sputnik
Italia, spesso esagerandone e gonfiandone ulteriormente il
contenuto. Del tema si era occupato l’anno scorso il sito BuzzFeed, che ha
pubblicato un’inchiesta sui legami tra i siti vicini al Movimento 5 Stelle
e la propaganda russa. Il New
York Times scrive che funzionari europei e americani parlano spesso
della possibilità che i partiti politici italiani vicini alla Russia abbiano
ricevuto finanziamenti o assistenza propagandistica da parte del governo russo,
come è avvenuto in Francia per il partito di destra radicale Front National.
Fino a oggi in Italia non sono emerse prove di simili legami.
Come la destra americana si è impadronita di Facebook
Senza che giornalisti, esperti e Facebook stesso se ne accorgessero: una preoccupante ricostruzione di Alexis Madrigal sull'Atlantic
Il magazine statunitense The
Atlantic ha
pubblicato un lungo articolo dedicato a Facebook e al suo ruolo nella
politica e nelle elezioni presidenziali americane, che mette insieme una serie
di ricostruzioni molto preoccupanti sul ruolo suddetto e su come sia sfuggito
di mano alla stessa Facebook, oltre che ai poteri pubblici e agli osservatori
di politica e tecnologia. La tesi complessiva dell’analisi – analisi a tesi, ma
molto approfondita e argomentata – è che un vecchio (di pochi anni) scenario in
cui l’innovazione tecnologica sembrava poter favorire politicamente la sinistra
che vi si era adeguata più rapidamente, abbia impedito a quasi tutti di
rendersi conto che una serie di sviluppi di Facebook, insieme ad altri fattori,
stavano invece dando un enorme potere a quella che è diventata la più
importante macchina da consenso a favore di Trump, e stravolgendo radicalmente
il funzionamento della democrazia. L’articolo, che è firmato da Alexis Madrigal,
uno dei più famosi ed esperti giornalisti dell’Atlantic, elenca questi fattori riprendendo una
serie di studi dei mesi e anni passati che a suo giudizio non erano stati
abbastanza ascoltati. Gli elementi per capire dove stavano andando le cose
c’erano, scrive Madrigal, ma in pochi li hanno visti tutti e in pochissimi li
hanno messi insieme.
La storia degli sviluppi nella comprensione del ruolo di Facebook
sulle elezioni è compressa in pochissimi anni, nei quali però sono cambiate un
sacco di cose. Nelle elezioni presidenziali statunitensi del 2012 fu assodato
che le campagne di Facebook per incentivare gli americani ad andare a votare –
quella che si chiamava “I voted”, per esempio – avevano evidentemente favorito
il risultato vincente di Barack Obama, coinvolgendo soprattutto giovani utenti
progressisti e più attenti all’innovazione. Inoltre, le campagne politiche dei
candidati Democratici si mostrarono più attente e avanti nello sfruttare le
opportunità di promozione a pagamento dei propri messaggi su Facebook. Fu la
prima volta in cui degli studi iniziarono a sancire che delle scelte di Facebook potevano
influenzare il risultato elettorale. Madrigal cita molte
ricerche in tutto il suo articolo e fa un’autocritica per non averle prese
sufficientemente in considerazione.
Come tutti questi esempi mostrano, il potenziale di Facebook
nell’influenzare un’elezione era chiaro almeno cinque anni prima che venisse
eletto Donald Trump. Ma piuttosto che dedicarsi al tema della correttezza delle
elezioni, la maggior parte degli autori – compreso me, e con alcune eccezioni –
lo considerò solo all’interno di altre più estese preoccupazioni come quelle
della privacy, dell’ideologia tecnologica, del sistema dei media o degli
effetti psicologici dell’uso dei social.
E questa sottovalutazione
ci fu persino all’interno della stessa Facebook: il tema
ricorrente dell’articolo di Madrigal è una sorta di ingenuità da parte di
Facebook nel non rendersi conto delle conseguenze di quello che stava
diventando, nell’illusione che non potesse che aumentare il suo benintenzionato
ruolo di “forza del bene” e favoreggiatore della democrazia.
La tecnologia su cui Facebook ha lavorato di più è il news feed, come Madrigal
aveva spiegato di recente in un singolo articolo sul
sito dell’Atlantic.
Il sistema di algoritmi che mette davanti agli utenti di Facebook i post che
più interessano loro è un successo eccezionale e indiscutibile: funziona
benissimo. Ma l’effetto collaterale di questo successo è un’accelerazione straordinaria di quella
che è ormai nota da anni come la filter bubble, termine reso famoso da un libro del 2011 di Eli Pariser: ovvero
l’attitudine di molti servizi online a metterci in contatto soltanto con le
cose simili a noi, ai nostri interessi, alle nostre opinioni e ai nostri gusti.
E a renderci invisibile il resto, con quel che ne consegue di limitazione alla
conoscenza, alla comprensione del mondo, allo scambio delle idee. E anche di
impossibilità, spiega Madrigal, di conoscere le “diete informative” degli
altri: se Facebook è così forte nel personalizzare il news feed per ognuno di
noi, e ognuno di noi ne ha uno diverso, è impossibile non solo immaginare ma
anche osservare, studiare, essere informati su cosa stia vedendo chiunque
altro. Questo è un altro tema rilevante: possono
svilupparsi fenomeni estesissimi su Facebook senza che chi ne è escluso ne
abbia il minimo sentore o possa indagarli. La potenza di molte
campagne e promozioni pro-Trump dirette a determinate fasce di elettori non
sono state percepite che da pochissimi esperti e osservatori, perché sui loro
account di Facebook non passavano per niente: grazie all’efficacia dei loro
news feed che non li ritenevano – giustamente, dal loro “punto di vista” –
interessati a quei messaggi.
Rispetto a questo, un tema di discussione concreto degli ultimi
mesi è stato per esempio la richiesta che Facebook obblighi a rendere pubblici
tutti i messaggi elettorali su cui vengono acquistate delle promozioni, e chi
sono i loro destinatari e i loro promotori: per limitare la possibilità emersa
dall’elezione di Trump in poi che enti sconosciuti e sospetti diffondano
liberamente milioni di campagne – spesso falsificatrici – senza nessun
controllo e senza che la comunità degli elettori, dei candidati, degli
osservatori ne sia a conoscenza.
Dal libro di Pariser a oggi Facebook è diventato potentissimo,
superando qualunque altro mezzo di comunicazione esistente. È un altro fattore
che ha cambiato le cose in questi anni: la
serie di scelte aggressive che Facebook ha fatto per battere ogni concorrenza
nel campo dei media vecchi e nuovi. Madrigal racconta che
malgrado Facebook non lo abbia mai ammesso, nel 2013 avviò una estesa campagna
di promozioni a favore della pagine dei siti di news, che ne aumentò
considerevolmente i fan e di conseguenza il traffico verso quei siti, rendendo
Facebook un canale prioritario per le redazioni e per le imprese
giornalistiche.
All’Atlantic
e in altre testate fu come se una marea ci stesse portando verso nuovi record
di traffico. Senza nuovi investimenti, senza assumere nessuno, senza cambiare
strategie o tattiche, senza pubblicare più cose, all’improvviso tutto era più
facile. Ma mentre il traffico verso il sito dell’Atlantic cresceva, una sua buona parte non
risultava dai nostri dati provenire da Facebook. Appariva come “traffico
diretto” o diciture simili, a seconda dei servizi di analytics. Sembrava una
cosa che avevo chiamato “dark social”, ma come sostenne allora Buzzfeed, e come mi convinsi
anch’io, era soprattutto traffico di Facebook mimetizzato. Tra agosto e ottobre
del 2013 la rete di siti di partner di Buzzfeed
ebbe un aumento di traffico da Facebook del 69 per cento.
All’Atlantic
facemmo una serie di esperimenti che dimostrò con buona certezza che gran parte
di quel traffico “dark social” veniva dalla app di Facebook su mobile. Nel
nostro ambiente iniziammo a realizzare: diamine,
siamo diventati di Facebook. Si erano impossessati della
distribuzione delle news.
La rivelazione di Madrigal sulla ragione di questa strategia si
deve anche in questo caso a un articolo
pubblicato al tempo: “Facebook voleva schiantare Twitter, che aveva attirato
una quota sproporzionata di attenzione da parte delle testate di news e dei
loro addetti. Come quando Instagram si impossessò delle “Storie” di Snapchat
per bloccarne la crescita, Facebook decise di impadronirsi delle “news” per
sgonfiare Twitter, appena entrata in borsa”.
E una cosa
simile Facebook la fece subito dopo con i video: un simile
grande investimento nell’incentivare la produzione e l’uso dei video su
Facebook (diversi articoli negli ultimi mesi hanno spiegato come “la gente
vuole vedere più video” sia in gran parte una bolla alimentata dallo stesso
Facebook). Una scelta dall’impatto fortissimo – all’improvviso video e video su
ogni pagina di Facebook, che generavano quantità enormi di engagement – volta a
prevalere in questo caso su YouTube, nel suo campo.
I video cambiarono le dinamiche dei news feed nelle pagine
personali, in quelle degli editori e di chiunque cercasse di capire cosa
diavolo stesse succedendo. Le persone furono improvvisamente sommerse di video.
Le aziende giornalistiche, malgrado non ci fosse nessun modello di business, furono
costrette a produrre video in qualunque modo per non rischiare che le proprie
pagine su Facebook perdessero rilevanza a favore di altre, affollate di video.
E un effetto collaterale ulteriore di tutto questo fu trasformare
l’analisi dei contenuti: tutto a un tratto, osservatori e studiosi ed esperti
non avevano più di fronte archivi di testi indagabili e sistematizzabili, in
cui compiere ricerche, calcolare tendenze, registrare variazioni e tematiche,
ma successioni di immagini e audio senza trascrizioni, assai più difficili da
analizzare, e spesso frutto di repliche, furti di contenuti, ribrandizzazioni,
che rendevano ancora più difficile contare eventuali tendenze.
*****
E fin qui Madrigal ha spiegato come è cambiato Facebook e come è
cresciuta la dimensione del suo ruolo in generale. Nel frattempo, negli stessi
anni, succedevano delle cose sul fronte dell’uso di internet da parte della
politica americana, e della politica di destra. Il sito Breitbart – famigerato,
quello di Steve Bannon, responsabile di potentissime aggressioni e
falsificazioni durante tutta la campagna elettorale a favore di Trump, di cui
Bannon sarebbe diventato consigliere in campagna elettorale e poi alla Casa
Bianca – e la sua rete di siti partner investì cifre eccezionali nel 2015 per
aumentare la sua forza su Facebook: a
luglio 2015 le interazioni su Facebook di Breitbart avevano superato quelle del New York Times. La sua
capacità di engagement
era diventata maggiore di quelle di tutti i maggiori siti di news. E
parallelamente, emergeva
con dimensioni del tutto nuove la produzione di fake news su Facebook.
In un articolo del dicembre 2015 su Buzzfeed, Joseph Bernstein sostenne che “le
forze oscure di internet sono diventate una controcultura”. La chiamò
“Chantrocultura” per via dei troll che si radunavano sul network 4chan a creare
meme spesso razzisti. Altri finirono per chiamarla semplicemente “alt-right” (destra alternativa).
Metteva insieme persone a cui piaceva diffondere falsificazioni, gamers fanatici (gamergaters),
estremisti della libertà di opinione come Milo Yiannopoulos,
neonazisti per-conto-di-Dio e suprematisti bianchi. E tutta questa gente adorava Donald Trump.
Il risultato più esemplare e spettacolare di questo fenomeno fu il
successo della storia nota come Pizzagate, una bufala
spregevole su una presunta rete di pedofili legata a una pizzeria di Washington
e a Hillary Clinton. Ma è solo un esempio, e molti studi hanno mostrato che le
notizie false legate alla campagna elettorale hanno generato più interazioni
delle notizie più importanti pubblicate da testate come il New York Times o il Washington Post.
L’indiscutibile aumento della produzione e diffusione di notizie false – a
prescindere dal fatto condiviso che le notizie false ci sono sempre state – fu
dovuto all’occasione rilevantissima della campagna elettorale americana e alle
trasformazioni nel sistema della diffusione delle news indotte da Facebook, e
alimentato da veri e propri business della falsificazione, in molti casi anche
svincolati da interessi elettorali per questo o quel candidato, come hanno
dimostrato molte storie di siti di successo economico nati per sfruttare il
potenziale virale delle notizie false intorno alle elezioni.
E tutto questo, per natura stessa di Facebook, era solo una parte
percepibile di quello che stava accadendo dentro e intorno al social network,
sostiene Madrigal citando Max Read del New
York Magazine: «Persino il Presidente-Papa-Viceré Zuckerberg è
apparso impreparato al ruolo che Facebook ha assunto nella politica mondiale
nell’anno passato».
E poi, prosegue Madrigal, ci sono i russi: i movimenti su Facebook provenienti dalla
Russia intorno alla campagna elettorale sono ampiamente documentati ormai,
e ammessi dallo stesso Facebook negli scorsi mesi con palese imbarazzo e
revisioni di precedenti certezze da parte di Zuckerberg. Un rapporto prodotto
dallo stesso Facebook quest’anno dice tra l’altro: “Dobbiamo estendere
l’attenzione alla sicurezza, per aggiungere ai comportamenti scorretti tradizionali
– come il furto di account, il malware, lo spam, le truffe finanziarie –
forme più sottili e insidiose di abuso, compresi i tentativi di manipolare il
dibattito civile e ingannare la gente”. Una delle cose che il rapporto descrive
come spiazzanti per i meccanismi di controllo e vigilanza di Facebook è avere a
che fare con fenomeni che non hanno obiettivi strettamente economici nell’uso
improprio delle promozioni e delle campagne su Facebook, e per i quali la
deterrenza di difese che facciano leva appunto sulle perdite economiche non è
efficace. “Non se lo aspettavano”, dice Madrigal.
Sommiamo tutto questo. Il caos di una piattaforma da un miliardo
di utenti che domina aggressivamente la distribuzione dei contenuti e delle
news. La nota efficacia elettorale di Facebook. L’assedio di notizie false e
disinformazione su internet in generale e su Facebook in particolare. Le
operazioni russe. Tutte cose che conoscevamo.
E lo stesso nessuno le ha messe insieme. Il social network dominante aveva alterato il panorama dell’informazione e della persuasione oltre ogni precedente raccogliendo gran parte dello stimato miliardo e quattro di dollari investiti in pubblicità online durante le elezioni. C’erano centinaia di milioni di dollari in promozioni oscure al lavoro. Fake news un po’ ovunque. Ragazzini macedoni che producevano campagne a favore di Trump. Un sistema di informazione rabbiosamente fazioso che ti dava solo le notizie che volevi sentire. Come credere a cosa? Che spazio restava per le politiche quando tutto questo stava divorando i news feed? Chi diavolo sapeva cosa stesse succedendo?
E lo stesso nessuno le ha messe insieme. Il social network dominante aveva alterato il panorama dell’informazione e della persuasione oltre ogni precedente raccogliendo gran parte dello stimato miliardo e quattro di dollari investiti in pubblicità online durante le elezioni. C’erano centinaia di milioni di dollari in promozioni oscure al lavoro. Fake news un po’ ovunque. Ragazzini macedoni che producevano campagne a favore di Trump. Un sistema di informazione rabbiosamente fazioso che ti dava solo le notizie che volevi sentire. Come credere a cosa? Che spazio restava per le politiche quando tutto questo stava divorando i news feed? Chi diavolo sapeva cosa stesse succedendo?
Che lo si sapesse poco, lo dimostra un articolo
del Washington Post
di agosto 2016 citato da Madrigal: si dice che Trump sta conducendo una
campagna vecchio stile basata sulla tv, mentre Clinton lo sta superando grazie
all’uso accorto e competente di nuovi strumenti, con “la campagna presidenziale
più digitale di sempre”. Invece, intanto, Trump stava investendo decine di
milioni di dollari nel costruire e sovvenzionare strutture in grado di studiare
il traffico digitale delle informazioni su Facebook, di orientarlo, di modificarlo.
Ma osservatori e giornalisti, ricostruisce Madrigal, erano troppo convinti
della solidità di un assunto formatosi negli anni precedenti: che i più
familiari e adatti a sfruttare le opportunità delle tecnologie digitali fossero
i liberal di ogni categoria, perché più giovani, perché prevalenti nelle
società innovative della west coast, perché progressisti. Internet da anni
faceva il gioco politico dei Democratici e lo avrebbe fatto sempre di più,
diceva l’assunto: era con l’elezione di Obama e con i suoi esperti consulenti
che il tema dell’uso dei social network nelle campagne elettorali era diventato
rilevante, mostrando il gap con l’inadeguatezza dei Repubblicani su questo
fronte.
Insomma: non è che nessun giornalista, esperto di società digitali
o ingegnere avesse immaginato il rilievo elettorale incombente di Facebook –
era ineludibile – ma tutti gli indizi suggerivano che del cambiamento avrebbero
beneficiato i Democratici. E per dirla tutta, la maggior parte dei giornalisti
e dei professori è progressista quanto i tecnologi della Silicon Valley, quindi
questa conclusione rassicurava perfettamente i professionisti in questi
settori.
Nei giorni prima delle elezioni lo Huffington Post dava alla vittoria di Clinton il
98,3 per cento di probabilità e criticava il famoso statistico Nate Silver per
essersi limitato a un 64,7 per cento di probabilità che Trump venisse
sconfitto: «Se volete affidarvi ai numeri, potete stare tranquilli. Per lei è
fatta».
Intanto, invece, Bannon andava spiegando serenamente: «Non sarei
salito a bordo, Trump o non Trump, se non avessi saputo che stavano costruendo
questa enorme macchina su Facebook e sui dati. È Facebook che ha lanciato Breitbart verso un pubblico
enorme. Conosciamo la sua potenza».
Com’è andata, lo sappiamo. La ricostruzione dell’Atlantic dà a momenti
l’impressione di voler mettere dentro un’unica narrazione coerente fattori e
vicende diversi e il cui rilievo non è del tutto dimostrato: ma lo fa con
abbondanza di sostanza, dati e analisi che mostrano che diversi di questi
sviluppi non vengono scoperti ora. Concludendo così.
I sistemi di informazione che le persone usano per elaborare le
notizie sono stati dirottati su Facebook, e lungo il percorso sono stati in
gran parte alterati e sottratti alla vista. Non è stato solo il pregiudizio
liberal che ha impedito ai media di fare due più due. Molte delle centinaia di
milioni di dollari spesi durante la campagna elettorale sono stati investiti in
formati di “dark ads”, promozioni oscure.
La verità è che mentre molti giornalisti sapevano che qualcosa
stava succedendo su Facebook, nessuno sapeva tutto quello che stava succedendo
su Facebook: nemmeno Facebook. E così, mentre avviene la più rilevante
trasformazione della tecnologia politica dai tempi della televisione, i primi
tentativi di ricostruzione storica sono pieni di turbini indecifrabili e pagine
vuote. E si avvicinano le elezioni di metà mandato del 2018.
Le notizie false e noi
Le responsabilità dei social network, quelle dei giornali e quelle dei lettori: guida per orientarsi in una discussione complessa ma necessaria
Il Post - 26 novembre 2016
L’improbabile vittoria di Donald Trump alle presidenziali negli Stati Uniti ha
riaperto il dibattito sulle notizie false, sulle loro conseguenze, sulla loro
diffusione online – soprattutto attraverso i social network – e sugli
strumenti che il sistema dei media dovrebbe adottare per ridurre il fenomeno,
recuperando fiducia nei confronti dell’opinione pubblica. In pochi giorni sui
giornali statunitensi sono state pubblicate decine di articoli rendendo
ancora più fecondo un dibattito che già esisteva prima dell’elezione di Trump,
ma che raramente era stato al centro dell’attenzione dei media e del grande
pubblico, se non temporaneamente e per la tenacia di alcuni analisti e osservatori
dei mezzi di comunicazione. Le posizioni e le tesi sono innumerevoli e vanno
dagli articoli colpevolisti, soprattutto nei confronti di Facebook, a quelli
autoassolutori delle testate giornalistiche, passando per contrite assunzioni
di responsabilità e proposte costruttive per provare a superare il problema
delle false notizie, o per lo meno per arginarne la diffusione.
È davvero colpa di Facebook?
Le prime analisi pubblicate subito dopo le elezioni negli Stati Uniti avevano attribuito a Facebook una responsabilità centrale nella diffusione di notizie false, che secondo alcuni avrebbero condizionato direttamente il risultato elettorale favorendo Donald Trump. Mark Zuckerberg, il CEO della società, aveva rapidamente liquidato queste accuse spiegando di ritenere “molto improbabile che le bufale abbiano cambiato l’esito delle elezioni in una direzione piuttosto che in un’altra”. Zuckerberg aveva inoltre sostenuto che “più del 99 per cento” dei contenuti su Facebook sono autentici, e che solo una minuscola porzione contiene notizie false e bufale, nemmeno tutte legate alla sola politica. Le dichiarazioni di Zuckerberg avevano portato a nuove critiche, soprattutto perché non fornivano elementi e dati concreti a loro sostegno. Tra i più duri c’era stato William Turton di Gizmodo, che aveva invitato a smettere di prendere per oro colato tutto ciò che dice Zuckerberg a proposito della sua azienda, criticandolo soprattutto per non rendere pubblici i dati (in forma anonima e aggregata) sul comportamento degli utenti, unico modo per comprendere l’effettivo ruolo delle notizie false nell’elezione di Trump e le modalità con cui riescono a proliferare sul social network. Turton aveva ricordato inoltre che il problema della scarsa trasparenza di Facebook risale a molto prima dell’elezione di Trump: il social network raccoglie ogni giorno miliardi di informazioni su ciò che fanno i suoi iscritti, ma non le mette a disposizione dei ricercatori interessati a studiare le dinamiche sociali sul Web. Facebook ha collaborato in passato con progetti di ricerca limitati, fornendo solo dati parziali sulle attività degli utenti. Senza quei pezzi di informazioni è molto difficile che si possa studiare con accuratezza che cosa è successo nell’ultimo anno, durante la campagna elettorale e subito prima delle elezioni, sul piano delle notizie false e non solo.
Le prime analisi pubblicate subito dopo le elezioni negli Stati Uniti avevano attribuito a Facebook una responsabilità centrale nella diffusione di notizie false, che secondo alcuni avrebbero condizionato direttamente il risultato elettorale favorendo Donald Trump. Mark Zuckerberg, il CEO della società, aveva rapidamente liquidato queste accuse spiegando di ritenere “molto improbabile che le bufale abbiano cambiato l’esito delle elezioni in una direzione piuttosto che in un’altra”. Zuckerberg aveva inoltre sostenuto che “più del 99 per cento” dei contenuti su Facebook sono autentici, e che solo una minuscola porzione contiene notizie false e bufale, nemmeno tutte legate alla sola politica. Le dichiarazioni di Zuckerberg avevano portato a nuove critiche, soprattutto perché non fornivano elementi e dati concreti a loro sostegno. Tra i più duri c’era stato William Turton di Gizmodo, che aveva invitato a smettere di prendere per oro colato tutto ciò che dice Zuckerberg a proposito della sua azienda, criticandolo soprattutto per non rendere pubblici i dati (in forma anonima e aggregata) sul comportamento degli utenti, unico modo per comprendere l’effettivo ruolo delle notizie false nell’elezione di Trump e le modalità con cui riescono a proliferare sul social network. Turton aveva ricordato inoltre che il problema della scarsa trasparenza di Facebook risale a molto prima dell’elezione di Trump: il social network raccoglie ogni giorno miliardi di informazioni su ciò che fanno i suoi iscritti, ma non le mette a disposizione dei ricercatori interessati a studiare le dinamiche sociali sul Web. Facebook ha collaborato in passato con progetti di ricerca limitati, fornendo solo dati parziali sulle attività degli utenti. Senza quei pezzi di informazioni è molto difficile che si possa studiare con accuratezza che cosa è successo nell’ultimo anno, durante la campagna elettorale e subito prima delle elezioni, sul piano delle notizie false e non solo.
Dopo essere rimasto per giorni in uno stato di “completo rifiuto”,
come
hanno scritto diversi osservatori, domenica 20 novembre Mark Zuckerberg è
tornato sul tema delle notizie false su Facebook adottando tutt’altro tono
e annunciando
di volerlo affrontare in modo più determinato e incisivo. Seppure continuando a
sostenere che “la percentuale di disinformazione su Facebook è relativamente
bassa”, Zuckerberg ha elencato i punti della nuova strategia contro le notizie
false:
• impiegare algoritmi che identifichino i contenuti che gli utenti
probabilmente segnalerebbero come bufale, in modo da rimuoverli ancora prima
che vengano segnalati;
• semplificare la segnalazione dei contenuti falsi da parte degli utenti;
• coinvolgere organizzazioni esterne a Facebook per confrontarsi sulla moderazione dei contenuti;
• etichettare le notizie ritenute false;
• migliorare la qualità degli articoli correlati, che compaiono sotto un post quando si mette “Mi piace” nella sezione Notizie;
• impedire ai siti di notizie false di usare il sistema per la pubblicità online di Facebook, tagliando una delle loro principali fonti di ricavo;
• confrontarsi con media e giornalisti per avere altri suggerimenti e consigli.
• semplificare la segnalazione dei contenuti falsi da parte degli utenti;
• coinvolgere organizzazioni esterne a Facebook per confrontarsi sulla moderazione dei contenuti;
• etichettare le notizie ritenute false;
• migliorare la qualità degli articoli correlati, che compaiono sotto un post quando si mette “Mi piace” nella sezione Notizie;
• impedire ai siti di notizie false di usare il sistema per la pubblicità online di Facebook, tagliando una delle loro principali fonti di ricavo;
• confrontarsi con media e giornalisti per avere altri suggerimenti e consigli.
Zuckerberg ha concluso il suo post ricordando che non tutti i
nuovi propositi potrebbero funzionare al primo colpo, ma che la riduzione delle
notizie false resta una priorità per Facebook. Il suo impegno è stato accolto
positivamente, anche dai più critici, che però hanno ricordato che nel post manca
un pezzo importante della storia: un’analisi, con dati e trend, per capire
quale ruolo abbia avuto il social network nelle presidenziali degli Stati
Uniti.
L’editoriale del New York Times
Facebook è stato criticato anche dal New York Times, che il 19 novembre ha pubblicato un editoriale sulla diffusione delle notizie false online partendo da questo assunto: la responsabilità è in primo luogo dei siti che pubblicano bufale, di solito con sensazionalismi che attirino clic per guadagnarci con la pubblicità, ma “aziende attive su Internet come Facebook e Google hanno buona parte della responsabilità per questa piaga, avendo reso possibile la condivisione delle notizie false con milioni di utenti quasi istantaneamente e senza la capacità di bloccarle”.
Facebook è stato criticato anche dal New York Times, che il 19 novembre ha pubblicato un editoriale sulla diffusione delle notizie false online partendo da questo assunto: la responsabilità è in primo luogo dei siti che pubblicano bufale, di solito con sensazionalismi che attirino clic per guadagnarci con la pubblicità, ma “aziende attive su Internet come Facebook e Google hanno buona parte della responsabilità per questa piaga, avendo reso possibile la condivisione delle notizie false con milioni di utenti quasi istantaneamente e senza la capacità di bloccarle”.
L’editoriale cita un articolo molto interessante pubblicato
su BuzzFeed da
Craig Silverman, giornalista che si occupa da tempo della genesi e della
diffusione delle notizie false online, secondo cui negli ultimi tre mesi della
campagna presidenziale negli Stati Uniti le 20 notizie false più di successo su
Facebook hanno avuto un seguito maggiore (in termini di condivisioni, “Mi
piace” e commenti) rispetto ai 20 articoli più di successo diffusi da veri
siti di informazione. Alcune di queste notizie false sono state riprese,
volontariamente o inconsapevolmente, dai candidati alle elezioni per il
Congresso e in alcuni casi dallo stesso Trump, creando un circolo vizioso che
ha portato a renderle più credibili e di conseguenza ancora più condivise sui
social network.
Il New York Times
scrive che Facebook ha già fatto qualche progresso dopo le elezioni, come l’annuncio
di non fornire il suo servizio per le pubblicità ai produttori di notizie false,
ma che “deve ai suoi utenti, e alla stessa democrazia” uno sforzo molto
maggiore. Nel corso degli ultimi anni Facebook ha modificato numerose volte i
suoi algoritmi per filtrare e modulare i contenuti che ogni utente vede nella
sezione Notizie, in modo da aumentare la partecipazione e di conseguenza i
tempi di permanenza sul social network (con conseguenti benefici per la
pubblicità). I contenuti sono mostrati in modo personalizzato in base alle
abitudini dei singoli utenti, alle cose che loro stessi condividono, ai “Mi
piace” che mettono ai post degli altri e a quanto tempo dedicano
a commentare e leggere i commenti degli altri. In molti si sono chiesti
perché Facebook non possa utilizzare i suoi algoritmi anche per identificare
rapidamente i post contenenti notizie false, mostrandoli meno nella sezione
Notizie ed eliminandoli nei casi più estremi.
Chi decide cosa moderare su Facebook
Nella prima metà di quest’anno, Facebook ha dovuto fare i conti con altre polemiche legate al modo con cui seleziona e mette in evidenza alcuni articoli nella versione statunitense della sezione Notizie: il social network era stato accusato di manipolazione nella scelta degli argomenti di tendenza, quelli più discussi dagli utenti, e di avere favorito gli articoli della stampa progressista rispetto a quella conservatrice. Facebook ha risposto alle accuse organizzando incontri con delegazioni di politici e giornalisti conservatori ed eliminando la selezione editoriale (quindi svolta da persone) affidando l’intero sistema ad algoritmi, che in alcuni casi hanno però favorito la diffusione di notizie false. Secondo fonti interne all’azienda, Facebook avrebbe inoltre evitato di introdurre nuovi filtri per limitare le notizie false, nel timore che si potesse ridurre la presenza di contenuti dai siti vicini ai Repubblicani, che in proporzione producono più articoli falsi di quelli a favore dei Democratici.
Nella prima metà di quest’anno, Facebook ha dovuto fare i conti con altre polemiche legate al modo con cui seleziona e mette in evidenza alcuni articoli nella versione statunitense della sezione Notizie: il social network era stato accusato di manipolazione nella scelta degli argomenti di tendenza, quelli più discussi dagli utenti, e di avere favorito gli articoli della stampa progressista rispetto a quella conservatrice. Facebook ha risposto alle accuse organizzando incontri con delegazioni di politici e giornalisti conservatori ed eliminando la selezione editoriale (quindi svolta da persone) affidando l’intero sistema ad algoritmi, che in alcuni casi hanno però favorito la diffusione di notizie false. Secondo fonti interne all’azienda, Facebook avrebbe inoltre evitato di introdurre nuovi filtri per limitare le notizie false, nel timore che si potesse ridurre la presenza di contenuti dai siti vicini ai Repubblicani, che in proporzione producono più articoli falsi di quelli a favore dei Democratici.
Facebook rifiuta da sempre di essere definito anche come “media
company”, una società editoriale, sostenendo di essere semplicemente un sistema
per mettere in contatto le persone interessate a condividere i loro interessi.
Nella pratica, però, Facebook sceglie e seleziona le notizie da mostrare (e il
modo in cui farlo) per i suoi iscritti, raccontando e dando una
rappresentazione del mondo come fanno gli altri media. E anche se
algoritmi e sistemi automatici hanno un ruolo preponderante nel formare questa
gerarchia e questa idea di mondo, dietro le quinte del social network ci sono
comunque migliaia di persone il cui compito è decidere se eliminare o meno
post, commenti e altri contenuti segnalati dagli utenti come volgari, violenti,
molesti o recanti falsità. Come una redazione.
NPR ha condotto una lunga indagine
sulla moderazione dei contenuti all’interno di Facebook, intervistando
impiegati ed ex dipendenti che hanno chiesto di non essere identificati per
evitare possibili ripercussioni sul piano legale. Quando un contenuto viene
segnalato su Facebook, spetta al “community operations team” controllarlo per
decidere se rimuoverlo o meno. Questa divisione è cresciuta rapidamente negli
ultimi anni e conta alcune migliaia di persone, concentrate soprattutto in
alcuni uffici a Manila nelle Filippine e a Varsavia, in Polonia. Facebook ha
quasi 1,8 miliardi di utenti, quindi ogni giorno il numero di segnalazioni è
enorme: ogni impiegato del team è valutato soprattutto in base
alla velocità con cui riesce a chiudere le segnalazioni. In media un
impiegato revisiona un contenuto ogni 10 secondi, per una media giornaliera di
2.800 post al giorno, secondo i calcoli fatti da NPR. Una foto chiaramente vietata dal
regolamento di Facebook può essere controllata e rimossa in pochi secondi,
altri casi sono molto più complessi e ci si chiede quanto possa essere accurato
un controllo di questo tipo.
La maggior parte dei contenuti non viene rimossa, ma NPR racconta che
comunque ci troviamo davanti alla più grande operazione di verifica – o
“censura” – nella storia dei media, e che tutto questo smentisce il fatto che
Facebook sia una semplice piattaforma gestita con sistemi automatici senza
intervento umano. Gli interventi riguardano soprattutto la pubblicazione di
contenuti non consentiti, ma se ci sarà un maggiore controllo sulle notizie
false, come promesso da Zuckerberg, è probabile che spetti a gruppi di lavoro
come questi la responsabilità di fare almeno in parte le verifiche sulla
veridicità dei contenuti. In assenza di conoscenze sufficienti e di meccanismi
meno frenetici di controllo, molte cose potrebbero andare storte nella ricerca
delle notizie false condivise sul social network. Per questo motivo diversi
giornalisti ed esperti di media negli ultimi giorni hanno scritto che Facebook
dovrebbe ammettere, in primo luogo a se stesso, di essere anche una media
company e di avere bisogno di qualcuno che sappia gestire questo suo aspetto,
finora sottovalutato.
Un direttore editoriale per Facebook
Margaret Sullivan scrive sul Washington Post che i propositi di Zuckerberg sono una buona cosa, ma non sono sufficienti: “È tempo per una mossa più coraggiosa: Facebook dovrebbe assumere un direttore editoriale di punta, dargli le risorse, il potere e uno staff per prendere decisioni in campo editoriale”. Visto che il social network rifiuta la definizione di media company, Zuckerberg potrà definire questo nuovo incarico come preferisce, spiega Sullivan: l’importante è che ci sia qualcuno con le giuste competenze per occuparsene: “Qualsiasi sia il titolo, Facebook ha bisogno di qualcuno in grado di distinguere la foto di una bambina che ha vinto il premio Pulitzer da un caso di pedopornografia, e che può riconoscere una balla da una vera inchiesta giornalistica”. Il riferimento è alla rimozione avvenuta questa estate di un post di un giornale norvegese, che aveva pubblicato la famosa foto di Nick Ut del 1972 in cui si vede una bambina vietnamita che corre nuda, allontanandosi da un’area in cui è stato condotto un attacco aereo con il napalm.
Margaret Sullivan scrive sul Washington Post che i propositi di Zuckerberg sono una buona cosa, ma non sono sufficienti: “È tempo per una mossa più coraggiosa: Facebook dovrebbe assumere un direttore editoriale di punta, dargli le risorse, il potere e uno staff per prendere decisioni in campo editoriale”. Visto che il social network rifiuta la definizione di media company, Zuckerberg potrà definire questo nuovo incarico come preferisce, spiega Sullivan: l’importante è che ci sia qualcuno con le giuste competenze per occuparsene: “Qualsiasi sia il titolo, Facebook ha bisogno di qualcuno in grado di distinguere la foto di una bambina che ha vinto il premio Pulitzer da un caso di pedopornografia, e che può riconoscere una balla da una vera inchiesta giornalistica”. Il riferimento è alla rimozione avvenuta questa estate di un post di un giornale norvegese, che aveva pubblicato la famosa foto di Nick Ut del 1972 in cui si vede una bambina vietnamita che corre nuda, allontanandosi da un’area in cui è stato condotto un attacco aereo con il napalm.
Ben prima delle elezioni, del resto, molti osservatori avevano
segnalato la necessità di trovare sistemi per segnalare le notizie false che
circolano facilmente sui social network, per impedire che ottengano una
risonanza (tra “Mi piace”, condivisioni e retweet su Twitter) tale da renderle
inarrestabili. Spesso gli articoli dei media affidabili che le smontano non
ricevono la stessa attenzione, lasciando quindi migliaia di persone convinte di
cose completamente inventate. Prima delle presidenziali negli Stati Uniti è
successo più volte, per esempio con la notizia falsa secondo cui Trump avesse
ricevuto l’esplicito sostegno da parte di papa Francesco.
Le notizie false oltre Facebook
In assenza di informazioni dettagliate da parte di Facebook è difficile dire con certezza quale peso abbia avuto il social network nelle presidenziali statunitensi, e più in generale quanto le notizie false abbiano influito sulla campagna elettorale. Molti osservatori sono convinti che Facebook sia stato usato dai media come un capro espiatorio, una facile soluzione per identificare un colpevole e al tempo stesso assolversi da eventuali responsabilità. Gregory Ferenstein ha scritto sul Washington Post che anche se non ci fossero state notizie false su Facebook, probabilmente chi utilizza Internet le avrebbe trovate e condivise lo stesso per altre vie, citando diverse ricerche condotte negli ultimi anni sul comportamento di chi si informa principalmente online attraverso social network, siti di informazione, forum e contatti.
In assenza di informazioni dettagliate da parte di Facebook è difficile dire con certezza quale peso abbia avuto il social network nelle presidenziali statunitensi, e più in generale quanto le notizie false abbiano influito sulla campagna elettorale. Molti osservatori sono convinti che Facebook sia stato usato dai media come un capro espiatorio, una facile soluzione per identificare un colpevole e al tempo stesso assolversi da eventuali responsabilità. Gregory Ferenstein ha scritto sul Washington Post che anche se non ci fossero state notizie false su Facebook, probabilmente chi utilizza Internet le avrebbe trovate e condivise lo stesso per altre vie, citando diverse ricerche condotte negli ultimi anni sul comportamento di chi si informa principalmente online attraverso social network, siti di informazione, forum e contatti.
Prima di Internet e la diffusione delle televisioni via cavo,
osserva Ferenstein, giornali e televisioni nazionali avevano goduto di
“un’era dell’oro” da custodi delle notizie utilizzate dall’opinione
pubblica per formarsi un’idea: “A buona parte dell’America arrivavano le stesse
notizie, mentre i punti di vista alternativi erano sostanzialmente esclusi
dalla TV e dalla carta stampata”. Ora il pubblico non è più loro “prigioniero”
e i lettori possono accedere alle notizie un po’ ovunque, vere o false che
siano: “Facebook consente alle persone di trovarle e condividerle più
facilmente, ma se non esistesse, ci sarebbe qualcos’altro”. E c’è già altro:
canali televisivi via cavo, siti e organizzazioni – soprattutto vicine ai
Repubblicani – che pubblicano notizie false, che hanno successo
semplicemente perché ci sono persone dall’altra parte disposte a crederci e
contente di avere un rinforzo alle loro convinzioni.
Trump ha alimentato tutto questo dicendo praticamente a ogni
comizio che “il sistema dei media è truccato” e che i giornalisti sono sempre
contro di lui. Durante la sua campagna elettorale ha invitato i suoi
sostenitori a informarsi online da fonti alternative, non dai media
tradizionali, facendo l’esempio di siti come Drudge
Report e Breitbart
e riprendendo le notizie di siti meno conosciuti, che spesso non citano nemmeno
le fonti delle informazioni che pubblicano.
Il problema di fondo è che se le notizie false proliferano è
perché c’è qualcuno disposto a crederci: intenzionalmente se gli fa comodo, o
inconsapevolmente se non hanno gli strumenti e le capacità per riconoscere una
bufala, soprattutto se questa viene ripresa da qualcuno di cui si fidano. L’ex
generale Michael Flynn, scelto come consigliere per la sicurezza nazionale da
Trump, poco prima delle elezioni aveva per esempio condiviso
una notizia falsa in cui si diceva che Hillary Clinton era coinvolta in uno
scandalo di riciclaggio di denaro e di crimini di altro tipo a sfondo sessuale:
era una bufala, ma il suo tweet fu ricondiviso più di 8mila volte.
Riconoscere le notizie false
Un recente studio della Stanford University indica chiaramente le difficoltà che incontrano molte persone nel riconoscere le notizie false, soprattutto tra i più giovani. La ricerca ha coinvolto 7.804 studenti che frequentano scuole secondarie e college e ha mostrato come per loro sia quasi sempre irrilevante la fonte della notizia che stanno leggendo. Molti studenti, per esempio, hanno valutato più credibili certe notizie semplicemente sulla base della quantità di dettagli contenuti nel tweet, aggiungendo di considerare più affidabili i tweet che contengono anche una grande fotografia. Lo studio ha rilevato come ci sia una chiara difficoltà anche a riconoscere un articolo scritto a scopi pubblicitari da un normale articolo informativo.
Un recente studio della Stanford University indica chiaramente le difficoltà che incontrano molte persone nel riconoscere le notizie false, soprattutto tra i più giovani. La ricerca ha coinvolto 7.804 studenti che frequentano scuole secondarie e college e ha mostrato come per loro sia quasi sempre irrilevante la fonte della notizia che stanno leggendo. Molti studenti, per esempio, hanno valutato più credibili certe notizie semplicemente sulla base della quantità di dettagli contenuti nel tweet, aggiungendo di considerare più affidabili i tweet che contengono anche una grande fotografia. Lo studio ha rilevato come ci sia una chiara difficoltà anche a riconoscere un articolo scritto a scopi pubblicitari da un normale articolo informativo.
Niente mediazione e scarsa fiducia
L’aumento dell’offerta informativa ha reso più evidenti le complessità e le contraddizioni del mondo, trasformando progressivamente il ruolo dei giornalisti, il cui compito principale oggi dovrebbe essere fare una selezione nel marasma delle notizie e aiutare l’opinione pubblica a restare informata su ciò che davvero importa. In parte per loro responsabilità dirette, i giornalisti hanno perso rapidamente il carico di fiducia riposto dai lettori nei loro confronti, mentre è cresciuta la convinzione che Internet offra i fatti e che sia meglio accedervi direttamente, senza alcuna mediazione.
L’aumento dell’offerta informativa ha reso più evidenti le complessità e le contraddizioni del mondo, trasformando progressivamente il ruolo dei giornalisti, il cui compito principale oggi dovrebbe essere fare una selezione nel marasma delle notizie e aiutare l’opinione pubblica a restare informata su ciò che davvero importa. In parte per loro responsabilità dirette, i giornalisti hanno perso rapidamente il carico di fiducia riposto dai lettori nei loro confronti, mentre è cresciuta la convinzione che Internet offra i fatti e che sia meglio accedervi direttamente, senza alcuna mediazione.
La sfiducia nei giornalisti è comune in molte democrazie
occidentali e probabilmente è paragonabile solo a quella nei confronti dei
politici. Negli Stati Uniti solo il 18 per cento della popolazione dice
di fidarsi delle notizie a livello nazionale e il 22 per cento di quelle a
livello locale. Tre statunitensi su quattro pensano che le grandi
organizzazioni che fanno informazione contribuiscano a tenere al loro posto i
politici, ma più o meno la stessa percentuale pensa che il sistema dei media
sia fazioso. Lo pensano di più i sostenitori dei Repubblicani rispetto a quelli
dei Democratici, ed è indubbio che a questa differenza abbiano contribuito gli
stessi esponenti politici conservatori e i siti e le radio del medesimo
schieramento politico.
L’elezione di Trump (e prima ancora il risultato di Brexit) ha
ampliato a dismisura il dibattito sulla disinformazione e, come ha
ricordato sul suo blog il direttore del Post,
Luca Sofri: “Il mondo ha scoperto i rischi delle democrazie informate male,
rischi che erano stati sottovalutati, ma che erano arcinoti”. La
disinformazione esisteva prima di Internet: con l’avvento della Rete si è
semplicemente aggiunto un nuovo strato a un fenomeno complesso e dai contorni
piuttosto sfumati. La disinformazione ha dentro un po’ di tutto: errori in
buona fede, incomprensioni, faziosità, la crisi dei giornali, la scarsa inclinazione
dei giornalisti a fare verifiche, la tendenza a rendere semplicistiche le
spiegazioni di fenomeni complessi, senza dimenticare il fatto che informarsi
costa fatica e che non tutti sono interessati a farlo. I social network hanno
probabilmente amplificato il problema, offrendo tra le altre cose scorciatoie
per i media in difficoltà, alla ricerca di clic e di soluzioni per mantenere i
loro modelli di business basati sulla pubblicità che richiedono grandi quantità
di lettori e di pagine viste per essere sostenibili.
Da dove arrivano le notizie false
Ci sono migliaia di siti poco affidabili che pubblicano ogni giorno notizie false, con articoli dai titoli eclatanti per attirare l’attenzione soprattutto sui social network. Non tutte fanno breccia, ma è sufficiente un retweet di un personaggio un po’ in vista, o una condivisione su una pagina di Facebook molto frequentata per avviare il circolo vizioso che darà più visibilità alla bufala, talvolta facendola finire anche sui media tradizionali. Che le bufale siano un business era noto da tempo, ma in alcuni casi durante la campagna elettorale statunitense sono anche diventate uno strumento politico utilizzato soprattutto per screditare Hillary Clinton. Gli esempi in questo senso sono numerosi e si va dagli strani siti gestiti dalla Macedonia, con bufale di ogni tipo sulla candidata dei Democratici, a iniziative più sofisticate come rivelato di recente dal Washington Post.
Ci sono migliaia di siti poco affidabili che pubblicano ogni giorno notizie false, con articoli dai titoli eclatanti per attirare l’attenzione soprattutto sui social network. Non tutte fanno breccia, ma è sufficiente un retweet di un personaggio un po’ in vista, o una condivisione su una pagina di Facebook molto frequentata per avviare il circolo vizioso che darà più visibilità alla bufala, talvolta facendola finire anche sui media tradizionali. Che le bufale siano un business era noto da tempo, ma in alcuni casi durante la campagna elettorale statunitense sono anche diventate uno strumento politico utilizzato soprattutto per screditare Hillary Clinton. Gli esempi in questo senso sono numerosi e si va dagli strani siti gestiti dalla Macedonia, con bufale di ogni tipo sulla candidata dei Democratici, a iniziative più sofisticate come rivelato di recente dal Washington Post.
Due gruppi di ricercatori, che hanno lavorato separatamente
all’analisi delle notizie false durante la campagna elettorale, hanno
notato che “il flusso di notizie false in questa stagione elettorale è
stato rinforzato da una campagna di propaganda dalla Russia creata per
diffondere articoli ingannevoli con l’obiettivo di sfavorire Hillary
Clinton, aiutando Donald Trump, e danneggiando la fede nei confronti della
democrazia americana”. Tracciando l’origine di particolari tweet e le
connessioni di alcuni account sui social network, i ricercatori dicono di avere
trovato un sistema organizzato per la diffusione di notizie false contro
Clinton attraverso circa 200 siti, che hanno raggiunto un pubblico di lettori
stimato intorno a 15 milioni di statunitensi. I loro post pubblicati su
Facebook sono stati visti almeno 200 milioni di volte sul social network.
Le prove sui legami con la Russia sono consistenti, dicono i
ricercatori, che hanno in molti casi trovato un coinvolgimento diretto di
alcune testate molto conosciute come Russia
Today (RT)
e Sputnik, controllate
dal governo russo e da Vladimir Putin, già accusato di aver ordinato attacchi
informatici contro il Partito Democratico e il comitato Clinton. Anche queste
organizzazioni hanno usato i loro account per diffondere notizie con illazioni
su Clinton, raramente verificate o verificabili, contribuendo alla creazione
dei circoli viziosi che autoalimentano la diffusione delle bufale su Internet,
talvolta con strascichi anche sui media tradizionali. Nelle ultime settimane di
campagna elettorale questi siti hanno diffuso notizie sui presunti brogli
durante le operazioni di voto senza fornire prove concrete, un tema ripreso
spesso durante i comizi dallo stesso Trump. I ricercatori dicono che il sistema
di propaganda era evidente, ma che sarà difficile quantificare il suo peso nel
convincere gli elettori indecisi a votare per Trump e non per Clinton. Mathew
Ingram su Fortune ha
però sollevato alcuni dubbi
sulle due ricerche e le ha definite vaghe e generiche, soprattutto sui metodi
utilizzati per le analisi e le fonti utilizzate.
Scoop che non lo erano
In altri casi, le notizie false sono semplicemente il frutto di informazioni comunicate male e incomprensioni, agganciate però rapidamente dai media che ne hanno amplificato la portata. Il fenomeno è stato raccontato efficacemente dal New York Times citando il caso di un tweet di Eric Tucker, un uomo di 35 anni di Austin, Texas, che in poche ore è diventato un caso nazionale per uno scoop che non lo era. Il giorno dopo l’elezione di Trump, Tucker ha visto alcuni autobus in fila in una strada della sua città, poco distante da dove era stata organizzata una manifestazione contro il nuovo presidente eletto: ha dedotto che i due fatti fossero collegati e ha pubblicato su Twitter le fotografie degli autobus, dicendo che erano stati usati per portare i manifestanti e che quindi non c’era nessuna manifestazione spontanea in corso. Quegli autobus erano invece lì per un meeting di sviluppatori organizzato da un’azienda che si chiama Tableau Software.
In altri casi, le notizie false sono semplicemente il frutto di informazioni comunicate male e incomprensioni, agganciate però rapidamente dai media che ne hanno amplificato la portata. Il fenomeno è stato raccontato efficacemente dal New York Times citando il caso di un tweet di Eric Tucker, un uomo di 35 anni di Austin, Texas, che in poche ore è diventato un caso nazionale per uno scoop che non lo era. Il giorno dopo l’elezione di Trump, Tucker ha visto alcuni autobus in fila in una strada della sua città, poco distante da dove era stata organizzata una manifestazione contro il nuovo presidente eletto: ha dedotto che i due fatti fossero collegati e ha pubblicato su Twitter le fotografie degli autobus, dicendo che erano stati usati per portare i manifestanti e che quindi non c’era nessuna manifestazione spontanea in corso. Quegli autobus erano invece lì per un meeting di sviluppatori organizzato da un’azienda che si chiama Tableau Software.
Il tweet di Tucker è stato segnalato su un canale di conservatori
su Reddit e in seguito sul forum Free
Republic, il cui link è stato poi condiviso più di 300mila volte su
Facebook. Solo il giorno dopo, il 10 novembre, quando ormai il tweet di Tucker
era ovunque, un giornalista si è messo in contatto con il responsabile degli
affari aziendali di Coach USA, per chiedere chi avesse effettivamente affittato
gli autobus per Austin. La falsa notizia aveva però ormai raggiunto una tale
massa di post sui social network e articoli sui siti dei conservatori da essere
inarrestabile. Lo stesso Trump nella sera del 10 novembre ha scritto un tweet
in cui parlava di “manifestanti professionisti, incitati dai media” contro di
lui.
Just had a very open and successful
presidential election. Now professional protesters, incited by the media, are
protesting. Very
unfair!
— Donald J. Trump (@realDonaldTrump) November
11, 2016
L’11 novembre Tucker ha rimosso il suo tweet, sostituendolo con un
altro in cui mostrava lo screenshot del contenuto rimosso con la scritta
“FALSO”. La smentita della stessa notizia sbagliata che aveva dato Tucker è
circolata pochissimo, se confrontata con la quantità enorme di retweet e
condivisioni su Facebook del tweet originale. Lo stesso sito Snopes, che si occupa di
smentire le notizie false e le bufale, ha ricevuto un numero infinitesimale di
condivisioni del suo articolo in cui smontava la storia di Tucker. Molte
persone ancora oggi credono che a Austin le proteste fossero organizzate
con manifestanti portati con gli autobus: è impossibile dire quante siano,
ma siamo nell’ordine delle migliaia.
Che fare?
Le analisi sulla crescente diffusione delle notizie false, e sul loro ruolo nell’elezione di Trump, sono ormai innumerevoli e continuano a esserne pubblicate di nuove, ma sono rari gli articoli che mettono in discussione il ruolo dei media nel fenomeno e che propongono soluzioni, per lo meno per arginare il problema. Tra gli interventi più interessanti sul “cosa possiamo fare”, c’è un lungo post scritto su Medium da Jeff Jarvis, rispettato studioso di comunicazione e nuovi media, che elenca una serie di consigli con la premessa che “le singole piattaforme non dovrebbero essere messe nella posizione di decidere cosa è falso e cosa è vero”.
Le analisi sulla crescente diffusione delle notizie false, e sul loro ruolo nell’elezione di Trump, sono ormai innumerevoli e continuano a esserne pubblicate di nuove, ma sono rari gli articoli che mettono in discussione il ruolo dei media nel fenomeno e che propongono soluzioni, per lo meno per arginare il problema. Tra gli interventi più interessanti sul “cosa possiamo fare”, c’è un lungo post scritto su Medium da Jeff Jarvis, rispettato studioso di comunicazione e nuovi media, che elenca una serie di consigli con la premessa che “le singole piattaforme non dovrebbero essere messe nella posizione di decidere cosa è falso e cosa è vero”.
Il primo consiglio è dare ai lettori la possibilità di segnalare
più facilmente le notizie false alle piattaforme che le stanno mostrando, come
Facebook, Twitter, Google, Bing, YouTube e gli altri servizi per la
pubblicazione e la condivisione di contenuti. I social network dovrebbero
inoltre concordare con i siti di news più affidabili e istituzionalizzati
(agenzie di stampa internazionali, grandi quotidiani e altre media company)
l’utilizzo di codici nelle loro pagine per rendere più riconoscibili le notizie
affidabili e dare loro maggiore risalto, per esempio nelle notizie correlate
che Facebook mostra quando si clicca sull’anteprima di un articolo: nel caso di
una notizia falsa, le correlate potrebbero mostrare sistematicamente gli
articoli che le smentiscono.
I motori di ricerca e i social network potrebbero inoltre
utilizzare sistemi di analisi sui siti e sugli account, per identificare quelli
creati da poco tempo al solo scopo di diffondere notizie false: è assurdo che talvolta
abbiano la stessa evidenza di articoli pubblicati da fonti più autorevoli, che
sono magari in circolazione da anni. I siti d’informazione dovrebbero inoltre
rendersi il più riconoscibili possibile sui social network, per contrastare la
progressiva generalizzazione da parte dei lettori “l’ho letto su Facebook”.
Per contrastare il fenomeno per cui ogni utente finisce quasi
sempre per leggere notizie da determinate fonti di parte, con cui si trova più
a proprio agio, i social network potrebbero proporre nei loro feed di tanto in
tanto articoli da fonti d’informazione diverse, ma comunque affidabili, cui non
si è iscritti. Gli utenti manterrebbero la possibilità di escludere quei
contenuti, ma mostrarglieli almeno una volta potrebbe comunque essere utile per
incentivarli a guardare un poco oltre la loro bolla. I siti di news
dovrebbero seguire l’esempio di Snopes, creando sezioni
in cui si occupano di smontare le bufale e le notizie false.
Facebook permette da tempo di modificare un proprio post dopo la
pubblicazione, con un sistema molto trasparente che mostra comunque la
cronologia delle modifiche; Twitter dà solo la possibilità di cancellare i
tweet, ma non di correggerli. La vicenda del tweet di Tucker sugli autobus di
Austin è la dimostrazione che Twitter dovrebbe studiare un sistema più adeguato
non solo per dare la possibilità di modificare un tweet, ma anche per inviare
notifiche agli utenti che l’hanno visto e avvisarli che qualcosa è cambiato,
nel caso in cui sia stata diffusa una notizia inesatta. Se fosse stato
possibile nel caso di Tucker, migliaia di persone avrebbero scoperto più
facilmente che la storia degli autobus non stava in piedi.
I siti di notizie dovrebbero inoltre studiare meglio i meccanismi
che determinano il successo di alcune iniziative online, come per esempio i
meme che raccolgono centinaia di milioni di visualizzazioni e migliaia di
condivisioni sui social network. Intorno ai meme c’è un bacino enorme di lettori
che può essere raggiunto e non si deve escludere a priori di farlo con i
mezzi che li attirano di più, a patto che i contenuti offerti siano corretti e
utili per aumentare i livelli d’informazione. Organizzazioni e fondazioni che
coinvolgono giornali, social network, università, ricercatori, ingegneri
informatici e istituzioni per affrontare il tema potrebbero fornire nuovi punti
di vista e strumenti.
Notizie false e bufale rendono le democrazie meno informate e
riducono nei fatti la capacità di ciascuno di comprendere il mondo che abbiamo
intorno e, in una certa misura, noi stessi. In molte analisi e articoli usciti
nelle ultime settimane, i lettori sono stati trascurati, quasi tenuti in
disparte, eppure nelle nostre società iperconnesse il loro ruolo è centrale
nella moltiplicazione dei canali e delle opportunità attraverso i quali si
diffondono e hanno successo le notizie false. Non hanno un ruolo passivo e, i
più informati e con maggiori strumenti, dovrebbero essere i primi a farsi
sentire nelle loro reti sociali, per spiegare a chi è meno informato che sta
riprendendo una balla e a dargli qualche dritta per non cascarci più. Questo
non significa azzerare le responsabilità di chi ha prodotto le bufale o
minimizzare il ruolo dei media e dei giornalisti, che come abbiamo visto è
enorme e ha mille implicazioni, ma semplicemente estendere a tutti la
responsabilità di risolvere il problema. Condividerla.