Il Blog delle malefatte sindacali a Malpensa (e non solo)

martedì 1 maggio 2018

Metodo putiniano /la fabbrica dei troll


Dentro la “fabbrica di troll” russi
Quella con sede a San Pietroburgo, che impiegò centinaia di troll per diffondere bufale e condizionare la campagna elettorale americana del 2016 e non solo
Il Post -martedì 20 febbraio 2018

Un post della pagina Facebook “Army of Jesus” creata dai troll russi durante la campagna elettorale americana del 2016 0
Qualche anno fa a San Pietroburgo, in Russia, aprì l’Internet Research Agency, più nota come “fabbrica di troll”, che secondo un’indagine del dipartimento della Giustizia statunitense interferì nella campagna elettorale statunitense del 2016.
Formata inizialmente da circa 25 impiegati, l’Internet Research Agency nacque con lo scopo di usare Internet, in particolare i social network, per creare e diffondere notizie false. Prima si occupò della guerra in Ucraina e della propaganda in Russia, poi con l’inizio della campagna elettorale americana cominciò a operare per minare la fiducia nel sistema democratico ed elettorale statunitense, alimentare le divisioni tra gruppi ideologici e appoggiare la candidatura a presidente di Donald Trump, a discapito di quella di Hillary Clinton. Secondo le accuse di molta stampa occidentale e del sistema giudiziario statunitense, l’operazione della “fabbrica di troll” di San Pietroburgo, costata milioni di dollari, fu avviata da Yevgeny Prigozhin, chiamato “lo chef del Cremlino” e con legami con il presidente russo Vladimir Putin, e raggiunse risultati a suo modo notevoli.
AdChoices
PUBBLICITÀ
Negli ultimi giorni sono venuti fuori nuovi dettagli sul funzionamento della “fabbrica di troll” di San Pietroburgo: sia per un documento di 37 pagine presentato dal procuratore speciale statunitense Robert Mueller, a capo dell’indagine sulle presunte interferenze russe nella campagna elettorale americana del 2016, sia per le testimonianze di ex impiegati della fabbrica riportate da alcuni importanti giornali americani.
Le indagini di Mueller e le inchieste giornalistiche hanno mostrato come il lavoro della “fabbrica di troll” non si fermasse mai: gli impiegati – poche decine all’inizio, diverse centinaia poi – lavoravano giorno e notte per creare account di Twitter e Facebook con i quali far circolare notizie false e per organizzare eventi e manifestazioni dovunque fosse utile e possibile. All’interno della fabbrica c’erano diverse sezioni: per esempio c’era quella dei troll dedicati al pubblico russo e quelli che invece lavoravano in inglese, per entrare in contatto direttamente con gli elettori americani.
Aleksei, uno dei primi 25 troll assunti dall’Internet Research Agency, ha raccontato al New York Times che il suo primo incarico fu scrivere un documento sulla “Dottrina Dulles”, cioè su una teoria cospirazionista molto nota in Russia secondo la quale negli anni Cinquanta l’allora direttore della CIA, Allen Dulles, avrebbe cercato di distruggere l’Unione Sovietica corrompendo i suoi valori morali e le sue tradizioni culturali. Aleksei, affidato al dipartimento che si rivolgeva ai russi, ha detto che a tutti i nuovi impiegati veniva chiesto di creare tre account su Live Journal, una nota e popolare piattaforma dove viene caricato un po’ di tutto, da usare poi per diffondere materiale e informazioni false, soprattutto sulla guerra in Siria, su quella in Ucraina orientale, sulla politica russa e sul presunto ruolo degli Stati Uniti nella diffusione del virus ebola (una delle tante teorie cospirazioniste che circolano sugli Stati Uniti, e che sono false). Dopo che veniva pubblicato un contenuto, ha raccontato Aleksei, quel post veniva ripreso dalla miriade di account falsi creati soprattutto su Facebook e faceva decine di migliaia di visualizzazioni.
Secondo Marat Mindiyarov, ex troll sentito dal Washington Post, lavorare nella fabbrica di San Pietroburgo era come stare dentro al libro 1984 di George Orwell, «un posto dove devi scrivere che il bianco è nero e che il nero è bianco». Mindiyarov ha raccontato per esempio che ai tempi del crollo del valore del rublo, la moneta russa, le indicazioni erano di raccontare «quanto la vita fosse fantastica, quanto forte fosse il rublo, questo tipo di assurdità». I turni di lavoro erano di 12 ore, dalle 9 di mattina alle 9 di sera: «Arrivavi e passavi tutto il giorno in una stanza con le tapparelle chiuse e 20 computer. C’erano diverse stanze su quattro piani. Era come una catena di montaggio, tutti erano impegnati, tutti stavano sempre scrivendo qualcosa. Avevi la sensazione di andare in fabbrica, non in un posto creativo». Mindiyarov ha raccontato anche che a un certo punto gli fu proposto di andare a lavorare nella sezione che si occupava della propaganda per gli americani: lui accettò di provare – avrebbero pagato il doppio – ma non superò l’esame preliminare previsto, perché non aveva una conoscenza perfetta dell’inglese: ed era importante che nessuno si accorgesse che era uno straniero, gli dissero.
Per influenzare la campagna elettorale americana, l’Internet Research Agency adoperava soprattutto tre strumenti: account falsi sui social media, organizzazione di manifestazioni reali e promozione di pubblicità online con contenuti politici. Gli account – come per esempio “Tennessee GOP”, ancora parzialmente reperibile – si occupavano dei temi più caldi della campagna elettorale, tra cui immigrazione, Islam e diritti dei neri. Una delle cittadine russe accusate dall’indagine guidata da Mueller, Irina Viktorina Kaverzina, scrisse una email a un suo familiare dicendogli: «Ho creato tutte queste fotografie e post, e gli americani hanno creduto che fossero scritti dalla loro gente».
Alcuni di questi account, poi, promuovevano manifestazioni e proteste organizzate dalla stessa fabbrica di troll sotto falso nome. Il New York Times ha individuato almeno 8 manifestazioni pianificate e promosse dall’Internet Research Agency tra il giugno e il novembre 2016: a New York, Washington, Charlotte, ma anche in alcune città della Florida e della Pennsylvania. In diverse occasioni queste manifestazioni furono organizzate in coordinamento con lo staff della campagna elettorale di Trump: non ci sono prove però che i collaboratori di Trump sapessero a chi appartenevano veramente questi account.
La reazione degli impiegati della fabbrica dei troll, dopo averci lavorato per uno o più anni, non fu uguale per tutti. Alcuni, come Aleksei sentito dal New York Times e Mindiyarov sentito dal Washington Post, decisero di dimettersi perché non sopportavano più quello che facevano. Altri invece no. È il caso di Sergei – un altro ex troll russo che ha parlato con il New York Times – che ha raccontato che lavorando nella fabbrica è diventato «più patriottico». Ha detto di avere capito quanto la Russia sia costretta a combattere ogni giorno con le potenze straniere, soprattutto con gli Stati Uniti, per ottenere il controllo delle risorse naturali. «Ho cominciato a essere cosciente delle ragioni dei problemi del mondo. Ora credo che il male sia l’élite che controlla il sistema della Federal Reserve [la banca centrale americana] negli Stati Uniti», ha detto Sergei, che ha aggiunto di essere diventato un uomo nuovo e di avere cambiato idea su moltissimi fatti del mondo.

Una persona falsa, letteralmente
Jenna Abrams aveva 70mila follower su Twitter, era popolare e veniva citata dai grandi giornali americani: solo che se l'erano inventata i russi
·         Il Post 3 novembre 2017
Dal 2014 un profilo di Twitter, uno di Medium, un sito e un account di posta di Gmail sono stati creati da dipendenti del governo russo per costruire una persona finta, una giovane donna americana, che partecipasse online al dibattito politico degli Stati Uniti, contribuendo a influenzarlo. È una delle cose scoperte durante le indagini della commissione intelligence della Camera statunitense, che sta indagando sulle interferenze della Russia nella scorsa campagna elettorale: il suo profilo Twitter è citato in un elenco di account fasulli diffuso dalla commissione. Questa “donna” era talmente credibile ed efficace nei suoi messaggi, e diventò così popolare online, che moltissimi siti autorevoli tra cui quelli del New York Times e di BBC l’hanno citata in articoli su diversi argomenti, dalle ascelle non depilate ai selfie senza vestiti di Kim Kardashian, dal “manspreading” ai missili balistici. The Daily Beast ha ricostruito la sua storia e il modo in cui i suoi messaggi sono stati ripresi online.
Il nome di questa persona inventata era Jenna Abrams. Ora i suoi account sono stati chiusi. La sua esistenza e il suo successo negli ultimi anni mostrano il livello di sofisticazione a cui sono arrivati i “creatori di troll” usati dal governo russo per influenzare la politica statunitense. Il suo profilo è uno dei 2.752 che sono stati chiusi perché Twitter ha scoperto che erano gestiti da un’organizzazione legata al governo russo, così come 36mila bot creati per ritwittare automaticamente contenuti propagandistici.
Un tweet del profilo Jenna Abrams ripreso con altri due dal sito di BBC in un suo articolo sulla depilazione delle ascelle del 2015: il tweet non esprimeva un’opinione controversa, diceva semplicemente che la depilazione è una pratica igienica (BBC)
Le indagini fatte negli ultimi anni sui profili come quello di Abrams hanno svelato che vengono creati da cosiddette “fabbriche di troll”, la più famosa delle quali è nota come “Internet Research Agency” e in passato veniva chiamata “Glavset”. Nei fatti queste “fabbriche” sono degli uffici in cui persone che conoscono bene l’inglese seguono la politica e l’attualità americane e quando succede qualcosa di cui tutti parlano – ad esempio un attentato – si mettono a scrivere dei post usando diversi profili sui social network, allo scopo di influenzare il dibattito. A questi profili corrispondono persone inventate: in alcuni casi non è impossibile intuirlo, in altri, come quello di Jenna Abrams, è impossibile per gli altri utenti dei social network. Poi i bot, creati sempre dalle “fabbriche di troll”, contribuiscono a diffondere i messaggi di questi profili fasulli.
Non tutte le “fabbriche di troll” si occupano degli Stati Uniti: la giornalista russa Ludmila Savchuk ha lavorato per due mesi sotto copertura in una di queste dedicata ai social network russi e ha raccontato al New York Times come funzionano.
Sia i bot che i profili di troll creati in Russia possono essere identificati da chi gestisce i social network andando a vedere da dove sono stati messi online. Twitter non ha spiegato con precisione come siano stati identificati i profili come quello di Jenna Abrams durante la relativa udienza alla commissione intelligence della Camera, in cui è stato semplicemente detto che sono stati analizzati uno a uno dopo essere stati «identificati come legati all’Internet Research Agency grazie a informazioni ricevute da fonti terze».
Il profilo Twitter di Abrams aveva circa 70mila follower e inizialmente non pubblicava messaggi su temi molto controversi, né contenuti associabili a un troll, ma plausibili opinioni di una giovane donna americana che dice quello che pensa e pensa cose sensate, e che lo dice abbastanza bene da essere ritwittata e citata dagli articoli di costume. Per esempio un suo tweet fu incluso in un articolo del Telegraph intitolato “I 15 tweet più divertenti di questa settimana”; un sito per ragazze ha dedicato un intero articolo a un suo tweet di critica a Kim Kardashian. Il tipo di messaggi diffusi dal profilo sono cambiati una volta che il numero dei suoi follower era cresciuto e allo stesso tempo si avvicinavano le elezioni presidenziali negli Stati Uniti. Pur avendo scritto nella sua biografia «Calmatevi, non sono pro-Trump. Sono solo pro-buon senso», il profilo cominciò a pubblicare tweet in favore di Donald Trump, sull’immigrazione o sulla segregazione razziale. L’ex consigliere per la sicurezza nazionale Michael Flynn ritwittò un suo tweet almeno una volta.
The Daily Beast dice che il tweet più virale di Jenna Abrams in questo filone pro-Trump era stato quello pubblicato lo scorso aprile, quando negli Stati Uniti si discuteva già dei monumenti sudisti:
«Alle persone che odiano la bandiera confederata. Lo sapevate che la bandiera e la guerra non riguardavano la schiavitù, ma solo i soldi?».
A questo tweet hanno risposto in moltissimi, tra cui giornalisti, storici e persone famose, per smentirne il contenuto. Il conduttore radiofonico afroamericano Al Letson continua ad avere come tweet fissato la sua risposta a quel tweet: «È molto facile dire che la Guerra Civile riguardava il denaro quando i tuoi antenati non erano la valuta di scambio». La risposta dello storico Kevin Kruse – «No, la Guerra Civile riguardava la schiavitù. Cordialmente, gli storici» – è stata ritwittata 41mila volte. Molte altre persone, soprattutto con idee di estrema destra, nel frattempo ritwittavano il messaggio di Abrams e se la prendevano con chi lo criticava.
Oltre al tweet sulla Guerra Civile, Jenna Abrams era anche l’autrice di un post su Medium intitolato “Perché dobbiamo tornare alla segregazione razziale” (è stato cancellato ma si può vedere qui) e di un’immagine di olive nere e verdi che prendeva in giro il movimento Black Lives Matter e che fu ripresa da CNN. Persone autorevoli come Michael McFaul, l’ex ambasciatore degli Stati Uniti in Russia ed esperto di propaganda russa, hanno litigato più volte con il profilo di Jenna Abrams e anche un “vero” troll americano come l’utente Ironghazi – che non vuole che si conosca la sua vera identità ma ha parlato con The Daily Beast – l’aveva scambiato per il profilo di una persona reale quando l’aveva presa in giro per il suo tweet sulla Guerra Civile. Ironghazi pensava che Abrams fosse vera per il modo in cui mescolava cose a volte divertenti, spesso stupide e quasi sempre arrabbiate.
L’elenco dei siti che secondo la ricostruzione di The Daily Beast hanno dato spazio ai messaggi del profilo di Jenna Abrams è molto lungo: ci sono siti legati al governo russo come Russia Today e Sputnik e siti di estrema destra come Breitbart, ma anche molti siti di pubblicazioni affidabili, tra cui USA TodaySky News, il Washington Post, Quartz, il Times of India, BuzzFeed e il New York Times. Secondo The Daily Beast: «La diffusione capillare di Abrams nei siti di news americani mostra quanto sia grande l’impatto della “fabbrica di troll” della Russia nel dibattito americano durante la campagna elettorale del 2016 – e fa capire come gli argomenti della Russia siano potuti filtrare nei media di massa americani senza che un singolo dollaro fosse speso in pubblicità».

Cosa succede quando i troll filorussi prendono di mira qualcuno

Una giornalista finlandese da due anni riceve minacce e intimidazioni per avere indagato sui loro rapporti con Putin

https://www.ilpost.it/2016/06/04/troll-filorussi/

Il Post 4 giugno 2016
Jessikka Aro ha 35 anni, è una giornalista della televisione pubblica finlandese Yle Kioski e dal 2014 riceve ogni giorno minacce e insulti su Internet da un agguerrito gruppo di troll che sostengono il governo russo. È stata accusata di essere un’informatrice della NATO, di avercela con la Russia e la sua popolazione, di avere spacciato droga: contro di lei sono state organizzate campagne molto dure online, sostenute da utenti quasi sempre anonimi e che si sospetta siano finanziati o per lo meno incentivati dal governo russo. La sua storia è stata raccontata dal New York Times, con un articolo in prima pagina su quello che è stato definito “l’esercito dei troll della Russia”.
Quando un paio di anni fa chiese agli spettatori del suo programma di raccontare le loro esperienze con i troll filorussi, Aro non immaginava che la sua vita sarebbe “diventata un inferno”, come ha raccontato al New York Times. Le cose peggiorarono ulteriormente nel 2015, quando Aro andò a San Pietroburgo per scoprire meglio come si organizza uno di questi gruppi di troll. Raccontò che in un grande ufficio poche persone creavano account falsi di ogni tipo sui social network, pubblicando commenti a favore della Russia sui siti di news, soprattutto su quelli in cui si parla della guerra in Ucraina. Alcuni attivisti filorussi si riunirono davanti alla sede di Yle a Helsinki per protestare contro Aro, accusando la stessa tv pubblica di essere un’organizzazione di troll.
Campagne sui social network molto agguerrite, talvolta con violenze verbali, sono frequenti e riguardano i temi più disparati: ma negli ultimi anni quelle a favore del governo russo sono diventate preponderanti, soprattutto in Europa. La stessa NATO e l’Unione Europea hanno riconosciuto il problema e incaricato diversi gruppi di lavoro di tenere sotto controllo i troll, collaborando con social network e altri servizi online per identificare gli account più molesti e se necessario farli sospendere. Dato che confinano con la Russia, e hanno a che fare con le ambizioni di Putin di espandere la sua area di controllo, i finlandesi sono diventati tra i principali obiettivi di queste campagne portate avanti dai troll filorussi.
La Finlandia non fa parte della NATO, ma dopo la guerra in Ucraina e le conseguenti pressioni sugli stati baltici ha iniziato ad avvicinarsi all’alleanza militare guidata dagli Stati Uniti, offrendo maggiore collaborazione. Tra le possibilità valutate e discusse c’è anche un ingresso della Finlandia nella NATO: la questione è molto dibattuta nel paese, con l’opinione pubblica divisa tra chi vuole mantenere maggiore autonomia e chi si sentirebbe più al sicuro sotto le tutele della NATO. I troll filorussi attaccano chi è favorevole a un avvicinamento della Finlandia alla NATO: la loro strategia è rispondere sui social network a chi dice cose contro la Russia, diffondere informazioni spesso diffamatorie sulla loro reputazione, costruire storie false intorno ad attivisti e associazioni con centinaia di commenti sui siti di informazione e creando confusione.
L’obiettivo dei troll è fare in modo che la Finlandia resti fuori dalla NATO, ha spiegato Saara Jantunen, ricercatrice dell’esercito finlandese: “Riempiono lo spazio dell’informazione con così tanti abusi e teorie del complotto che anche le persone sane di mente perdono la testa”. Se non trovano basi solide per screditare qualcuno, provano a esasperarlo fino al punto in cui non se la sente più di dire la sua online. “Ti entrano nella testa e inizi a pensare: se faccio questa cosa, poi i troll che cosa faranno?”, ha spiegato Aro.
Da quando si occupa del fenomeno, Aro ha ricevuto un gran numero di commenti anonimi e messaggi su Facebook da account fasulli. Gli autori degli insulti dicono di esercitare semplicemente il loro diritto di libertà di parola e negano di ricevere denaro dal governo russo per farlo. Tenere sotto controllo tutte le falsità che vengono pubblicate è praticamente impossibile, così come organizzare iniziative per fare conoscere la verità. L’Unione Europea dallo scorso autunno pubblica ogni settimana un elenco di miti e falsità diffuse online dai troll, attraverso il sito “Disinformation Review”. L’iniziativa non è molto conosciuta e non si è rivelata efficace nel contrastare i troll.
Aro conosce comunque l’identità di almeno uno dei suoi principali critici, perché ha deciso di rinunciare all’anonimato. Si chiama Johan Backman, è un convinto sostenitore delle politiche del presidente russo Vladimir Putin e passa molto tempo a Mosca, dove viene invitato spesso nelle trasmissioni controllate dal governo. Si definisce un “difensore dei diritti umani” ed è rappresentante della Repubblica Popolare di Donetsk, lo stato non riconosciuto che è stato proclamato nel 2014 dalle autorità separatiste ucraine filorusse. Dice di non ricevere finanziamenti dalla Russia e di non avere preso parte a una “guerra dell’informazione” contro Aro. È però convinto che sia la Russia al centro di una campagna di disinformazione organizzata dai paesi occidentali e di cui Aro fa parte.
Le minacce e le intimidazioni nei confronti di Jessikka Aro non si sono comunque limitate alle campagne online. Poco dopo avere iniziato la sua inchiesta giornalistica nel settembre del 2014, Aro ricevette una telefonata da un numero con prefisso ucraino. Rispose ma non sentì nessuna voce: solo un colpo di pistola. Nei giorni seguenti le furono inviati SMS ed email che la definivano una “puttana della NATO”.
All’inizio di quest’anno il sito MVLehti – che si occupa di Finlandia ma ha sede in Spagna – ha pubblicato i documenti di una presunta condanna ricevuta da Aro nel 2004 per il consumo di anfetamine, che le costò una multa di 300 euro. L’articolo che ne dava conto era intitolato “Si è scoperto che l’informatrice della NATO Jessikka Aro è una spacciatrice di droga” e mostrava, tra le altre cose, alcune fotografie di Aro scattate mentre era in una discoteca di Bangkok, durante una vacanza in Thailandia. La notizia dello spaccio di droga era inventata: ha portato alla pubblicazione di una lettera aperta firmata dai direttori di 20 testate finlandesi per denunciare pratiche che “avvelenano il dibattito pubblico” attraverso la diffamazione e la pubblicazione di falsità. La polizia finlandese ha avviato un’indagine con l’accusa di incitazione all’odio e persecuzione nei confronti del sito.
Il fondatore di MVLehti, Ilja Janitskin, ha detto di non avere nessun legame con la Russia, fatta eccezione per il suo cognome. Al New York Times ha spiegato di essere più un sostenitore di Donald Trump che di Vladimir Putin, e di essersi interessato ad Aro dopo che la giornalista finlandese aveva accusato il suo sito di fare propaganda a favore della Russia. Come Backman, ha negato di ricevere finanziamenti dal governo russo per le sue attività.

L’influenza russa in Italia sta crescendo?

Lo scrive il New York Times, secondo cui la Russia sta occupando il vuoto politico lasciato dagli Stati Uniti, anche grazie a partiti come il Movimento 5 Stelle e la Lega Nord


Il Post - 30 maggio 2017
Lunedì il New York Times ha dedicato un articolo all’influenza politica che la Russia sta estendendo in Italia. L’alleato principale della Russia in Italia, scrive il New York Times, è il Movimento 5 Stelle, che è passato dal «condannare le violazioni dei diritti umani di Putin» a «esaltare la sua leadership»: ma ci sono anche altri partiti, per esempio la Lega Nord, che negli ultimi mesi si sono avvicinati sempre di più al governo russo e difendono di frequente le sue azioni e posizioni.
Secondo il New York Times, uno dei motivi principali della crescita dell’influenza russa in Italia è il cattivo stato delle relazioni tra l’Italia e gli Stati Uniti. Trump non sembra aver intenzione di aiutare l’Italia in questioni che il nostro paese considera molto importanti, come la situazione in Libia: e insiste perché l’Italia aumenti le spese militari in base agli impegni presi con la NATO (la famosa questione del “2 per cento”), una scelta che sarebbe impopolare per qualsiasi governo. Quando minaccia la Germania per le sue eccessive esportazioni, poi, Trump minaccia implicitamente anche l’Italia, che con gli Stati Uniti ha una bilancia commerciale positiva per diversi miliardi: cioè esporta beni negli Stati Uniti più di quanti ne importi dagli Stati Uniti. Inoltre l’ambasciata americana in Italia è da mesi senza ambasciatore, un segno evidente di quanto poco prioritaria Trump ritenga l’Italia, scrive il New York Times.
È invece molto attivo Sergey Razov, l’ambasciatore russo, che a Villa Abamelek, sede dell’ambasciata russa a Roma, organizza cene e ricevimenti e ha in programma per il prossimo mese una grande festa per celebrare la festa nazionale russa. Razov, scrive il New York Times, ha rifiutato di farsi intervistare, ma è molto bravo nel tessere relazioni. Le sue attività vanno dall’organizzare concerti per i terremotati a visitare gli amministratori delle aziende italiane danneggiate dalle sanzioni russe: e questo non è un argomento su cui è difficile farsi ascoltare, per Razov.
Le contro-sanzioni con cui la Russia ha risposto alle sanzioni statunitensi ed europee (approvate dopo l’aggressione russa in Ucraina) hanno colpito in particolare il settore agricolo e della trasformazione alimentare, due comparti che possiedono una forte rappresentanza associativa e politica. Esistono diverse stime sui danni arrecati dalle sanzioni e dalle contro-sanzioni russe, ma si parla in ogni caso di centinaia di milioni di euro l’anno: associazioni come Coldiretti e partiti politici come la Lega Nord ripetono spesso che le sanzioni alla Russia sono state un errore e che è necessario tornare ad avere buoni rapporti con il presidente Putin. Matteo Salvini è probabilmente uno dei leader politici più vicini alla Russia: negli ultimi mesi più volte è stato in Russia, sia in visita ufficiale che come privato cittadino.
Il governo italiano si è mostrato quasi altrettanto sensibile a questo tipo di pressioni. Sia l’ex presidente del Consiglio Matteo Renzi che il presidente della Repubblica Mattarella hanno visitato la Russia nel corso dell’ultimo anno. Tra i paesi europei l’Italia è considerata uno dei più vicini alla Russia – «il ventre molle dell’Europa», ha scritto il New York Times – e il governo italiano si è più volte espresso contro le sanzioni alla Russia, anche se non è mai arrivato a incrinare il fronte unitario che fino a oggi ha portato al periodico rinnovo delle sanzioni. «Gli effetti dell’influenza russa si fanno sentire in Italia, con i politici locali sempre più incerti nel sostenere la linea dura chiesta dal resto dell’Europa in seguito all’invasione dell’Ucraina», ha scritto il New York Times.
Anche il Movimento 5 Stelle negli ultimi anni si è mostrato sempre più vicino alla Russia. In un recente incontro in cui alcuni suoi esponenti hanno presentato il programma di politica estera del Movimento, il deputato Manlio Di Stefano ha descritto la Russia come «un partner strategico ingiustamente punito» e gli Stati Uniti «come un alleato prepotente», scrive il New York Times. Gli esponenti del Movimento 5 Stelle sono invece molto delusi da Trump, e il metro su cui misurano il loro apprezzamento per il presidente americano sembra essere sostanzialmente il suo rapporto con la Russia: «Ha detto che voleva migliorare le relazioni con la Russia, e poi ha iniziato a bombardare», ha detto Di Stefano al New York Times, riferendosi al bombardamento americano contro l’esercito siriano, alleato della Russia.
Oltre alla diplomazia visibile, scrive il New York Times, fatta di incontri internazionali e di quelli organizzati dall’ambasciatore, alcuni temono poi che la Russia stia portando avanti anche un lavoro dietro le quinte, un lavoro che ha al centro la diffusione di notizie false tramite i media controllati dal Cremlino. Celia Kuningas Saagpakk, ambasciatrice dell’Estonia in Italia ed ex dipendente del ministero degli Esteri, dove studiava la propaganda russa in Ucraina e altrove, dice che la Russia ha investito molto in Italia. Il governo russo per esempio ha creato Sputnik Italia, un sito che diffonde propaganda russa e notizie false in italiano (per esempio: “Trovata foto della Merkel con il presunto kamikaze di Bruxelles”).
Il legame tra Movimento 5 Stelle e Russia si è rafforzato anche in questo campo. Gli aggregatori di notizie di proprietà della Casaleggio Associati, la società che gestisce gran parte delle attività del M5S, riprendono sistematicamente le notizie di Sputnik Italia, spesso esagerandone e gonfiandone ulteriormente il contenuto. Del tema si era occupato l’anno scorso il sito BuzzFeed, che ha pubblicato un’inchiesta sui legami tra i siti vicini al Movimento 5 Stelle e la propaganda russa. Il New York Times scrive che funzionari europei e americani parlano spesso della possibilità che i partiti politici italiani vicini alla Russia abbiano ricevuto finanziamenti o assistenza propagandistica da parte del governo russo, come è avvenuto in Francia per il partito di destra radicale Front National. Fino a oggi in Italia non sono emerse prove di simili legami.

Come la destra americana si è impadronita di Facebook

Senza che giornalisti, esperti e Facebook stesso se ne accorgessero: una preoccupante ricostruzione di Alexis Madrigal sull'Atlantic

Il magazine statunitense The Atlantic ha pubblicato un lungo articolo dedicato a Facebook e al suo ruolo nella politica e nelle elezioni presidenziali americane, che mette insieme una serie di ricostruzioni molto preoccupanti sul ruolo suddetto e su come sia sfuggito di mano alla stessa Facebook, oltre che ai poteri pubblici e agli osservatori di politica e tecnologia. La tesi complessiva dell’analisi – analisi a tesi, ma molto approfondita e argomentata – è che un vecchio (di pochi anni) scenario in cui l’innovazione tecnologica sembrava poter favorire politicamente la sinistra che vi si era adeguata più rapidamente, abbia impedito a quasi tutti di rendersi conto che una serie di sviluppi di Facebook, insieme ad altri fattori, stavano invece dando un enorme potere a quella che è diventata la più importante macchina da consenso a favore di Trump, e stravolgendo radicalmente il funzionamento della democrazia. L’articolo, che è firmato da Alexis Madrigal, uno dei più famosi ed esperti giornalisti dell’Atlantic, elenca questi fattori riprendendo una serie di studi dei mesi e anni passati che a suo giudizio non erano stati abbastanza ascoltati. Gli elementi per capire dove stavano andando le cose c’erano, scrive Madrigal, ma in pochi li hanno visti tutti e in pochissimi li hanno messi insieme.
La storia degli sviluppi nella comprensione del ruolo di Facebook sulle elezioni è compressa in pochissimi anni, nei quali però sono cambiate un sacco di cose. Nelle elezioni presidenziali statunitensi del 2012 fu assodato che le campagne di Facebook per incentivare gli americani ad andare a votare – quella che si chiamava “I voted”, per esempio – avevano evidentemente favorito il risultato vincente di Barack Obama, coinvolgendo soprattutto giovani utenti progressisti e più attenti all’innovazione. Inoltre, le campagne politiche dei candidati Democratici si mostrarono più attente e avanti nello sfruttare le opportunità di promozione a pagamento dei propri messaggi su Facebook. Fu la prima volta in cui degli studi iniziarono a sancire che delle scelte di Facebook potevano influenzare il risultato elettorale. Madrigal cita molte ricerche in tutto il suo articolo e fa un’autocritica per non averle prese sufficientemente in considerazione.
Come tutti questi esempi mostrano, il potenziale di Facebook nell’influenzare un’elezione era chiaro almeno cinque anni prima che venisse eletto Donald Trump. Ma piuttosto che dedicarsi al tema della correttezza delle elezioni, la maggior parte degli autori – compreso me, e con alcune eccezioni – lo considerò solo all’interno di altre più estese preoccupazioni come quelle della privacy, dell’ideologia tecnologica, del sistema dei media o degli effetti psicologici dell’uso dei social.
E questa sottovalutazione ci fu persino all’interno della stessa Facebook: il tema ricorrente dell’articolo di Madrigal è una sorta di ingenuità da parte di Facebook nel non rendersi conto delle conseguenze di quello che stava diventando, nell’illusione che non potesse che aumentare il suo benintenzionato ruolo di “forza del bene” e favoreggiatore della democrazia.
La tecnologia su cui Facebook ha lavorato di più è il news feed, come Madrigal aveva spiegato di recente in un singolo articolo sul sito dell’Atlantic. Il sistema di algoritmi che mette davanti agli utenti di Facebook i post che più interessano loro è un successo eccezionale e indiscutibile: funziona benissimo. Ma l’effetto collaterale di questo successo è un’accelerazione straordinaria di quella che è ormai nota da anni come la filter bubble, termine reso famoso da un libro del 2011 di Eli Pariser: ovvero l’attitudine di molti servizi online a metterci in contatto soltanto con le cose simili a noi, ai nostri interessi, alle nostre opinioni e ai nostri gusti. E a renderci invisibile il resto, con quel che ne consegue di limitazione alla conoscenza, alla comprensione del mondo, allo scambio delle idee. E anche di impossibilità, spiega Madrigal, di conoscere le “diete informative” degli altri: se Facebook è così forte nel personalizzare il news feed per ognuno di noi, e ognuno di noi ne ha uno diverso, è impossibile non solo immaginare ma anche osservare, studiare, essere informati su cosa stia vedendo chiunque altro. Questo è un altro tema rilevante: possono svilupparsi fenomeni estesissimi su Facebook senza che chi ne è escluso ne abbia il minimo sentore o possa indagarli. La potenza di molte campagne e promozioni pro-Trump dirette a determinate fasce di elettori non sono state percepite che da pochissimi esperti e osservatori, perché sui loro account di Facebook non passavano per niente: grazie all’efficacia dei loro news feed che non li ritenevano – giustamente, dal loro “punto di vista” – interessati a quei messaggi.
Rispetto a questo, un tema di discussione concreto degli ultimi mesi è stato per esempio la richiesta che Facebook obblighi a rendere pubblici tutti i messaggi elettorali su cui vengono acquistate delle promozioni, e chi sono i loro destinatari e i loro promotori: per limitare la possibilità emersa dall’elezione di Trump in poi che enti sconosciuti e sospetti diffondano liberamente milioni di campagne – spesso falsificatrici – senza nessun controllo e senza che la comunità degli elettori, dei candidati, degli osservatori ne sia a conoscenza.
Dal libro di Pariser a oggi Facebook è diventato potentissimo, superando qualunque altro mezzo di comunicazione esistente. È un altro fattore che ha cambiato le cose in questi anni: la serie di scelte aggressive che Facebook ha fatto per battere ogni concorrenza nel campo dei media vecchi e nuovi. Madrigal racconta che malgrado Facebook non lo abbia mai ammesso, nel 2013 avviò una estesa campagna di promozioni a favore della pagine dei siti di news, che ne aumentò considerevolmente i fan e di conseguenza il traffico verso quei siti, rendendo Facebook un canale prioritario per le redazioni e per le imprese giornalistiche.
All’Atlantic e in altre testate fu come se una marea ci stesse portando verso nuovi record di traffico. Senza nuovi investimenti, senza assumere nessuno, senza cambiare strategie o tattiche, senza pubblicare più cose, all’improvviso tutto era più facile. Ma mentre il traffico verso il sito dell’Atlantic cresceva, una sua buona parte non risultava dai nostri dati provenire da Facebook. Appariva come “traffico diretto” o diciture simili, a seconda dei servizi di analytics. Sembrava una cosa che avevo chiamato “dark social”, ma come sostenne allora Buzzfeed, e come mi convinsi anch’io, era soprattutto traffico di Facebook mimetizzato. Tra agosto e ottobre del 2013 la rete di siti di partner di Buzzfeed ebbe un aumento di traffico da Facebook del 69 per cento.
All’Atlantic facemmo una serie di esperimenti che dimostrò con buona certezza che gran parte di quel traffico “dark social” veniva dalla app di Facebook su mobile. Nel nostro ambiente iniziammo a realizzare: diamine, siamo diventati di Facebook. Si erano impossessati della distribuzione delle news.
La rivelazione di Madrigal sulla ragione di questa strategia si deve anche in questo caso a un articolo pubblicato al tempo: “Facebook voleva schiantare Twitter, che aveva attirato una quota sproporzionata di attenzione da parte delle testate di news e dei loro addetti. Come quando Instagram si impossessò delle “Storie” di Snapchat per bloccarne la crescita, Facebook decise di impadronirsi delle “news” per sgonfiare Twitter, appena entrata in borsa”.
E una cosa simile Facebook la fece subito dopo con i video: un simile grande investimento nell’incentivare la produzione e l’uso dei video su Facebook (diversi articoli negli ultimi mesi hanno spiegato come “la gente vuole vedere più video” sia in gran parte una bolla alimentata dallo stesso Facebook). Una scelta dall’impatto fortissimo – all’improvviso video e video su ogni pagina di Facebook, che generavano quantità enormi di engagement – volta a prevalere in questo caso su YouTube, nel suo campo.
I video cambiarono le dinamiche dei news feed nelle pagine personali, in quelle degli editori e di chiunque cercasse di capire cosa diavolo stesse succedendo. Le persone furono improvvisamente sommerse di video. Le aziende giornalistiche, malgrado non ci fosse nessun modello di business, furono costrette a produrre video in qualunque modo per non rischiare che le proprie pagine su Facebook perdessero rilevanza a favore di altre, affollate di video.
E un effetto collaterale ulteriore di tutto questo fu trasformare l’analisi dei contenuti: tutto a un tratto, osservatori e studiosi ed esperti non avevano più di fronte archivi di testi indagabili e sistematizzabili, in cui compiere ricerche, calcolare tendenze, registrare variazioni e tematiche, ma successioni di immagini e audio senza trascrizioni, assai più difficili da analizzare, e spesso frutto di repliche, furti di contenuti, ribrandizzazioni, che rendevano ancora più difficile contare eventuali tendenze.
*****
E fin qui Madrigal ha spiegato come è cambiato Facebook e come è cresciuta la dimensione del suo ruolo in generale. Nel frattempo, negli stessi anni, succedevano delle cose sul fronte dell’uso di internet da parte della politica americana, e della politica di destra. Il sito Breitbart – famigerato, quello di Steve Bannon, responsabile di potentissime aggressioni e falsificazioni durante tutta la campagna elettorale a favore di Trump, di cui Bannon sarebbe diventato consigliere in campagna elettorale e poi alla Casa Bianca – e la sua rete di siti partner investì cifre eccezionali nel 2015 per aumentare la sua forza su Facebook: a luglio 2015 le interazioni su Facebook di Breitbart avevano superato quelle del New York Times. La sua capacità di engagement era diventata maggiore di quelle di tutti i maggiori siti di news. E parallelamente, emergeva con dimensioni del tutto nuove la produzione di fake news su Facebook.
In un articolo del dicembre 2015 su Buzzfeed, Joseph Bernstein sostenne che “le forze oscure di internet sono diventate una controcultura”. La chiamò “Chantrocultura” per via dei troll che si radunavano sul network 4chan a creare meme spesso razzisti. Altri finirono per chiamarla semplicemente “alt-right” (destra alternativa). Metteva insieme persone a cui piaceva diffondere falsificazioni, gamers fanatici (gamergaters), estremisti della libertà di opinione come Milo Yiannopoulos, neonazisti per-conto-di-Dio e suprematisti bianchi. E tutta questa gente adorava Donald Trump.
Il risultato più esemplare e spettacolare di questo fenomeno fu il successo della storia nota come Pizzagate, una bufala spregevole su una presunta rete di pedofili legata a una pizzeria di Washington e a Hillary Clinton. Ma è solo un esempio, e molti studi hanno mostrato che le notizie false legate alla campagna elettorale hanno generato più interazioni delle notizie più importanti pubblicate da testate come il New York Times o il Washington Post. L’indiscutibile aumento della produzione e diffusione di notizie false – a prescindere dal fatto condiviso che le notizie false ci sono sempre state – fu dovuto all’occasione rilevantissima della campagna elettorale americana e alle trasformazioni nel sistema della diffusione delle news indotte da Facebook, e alimentato da veri e propri business della falsificazione, in molti casi anche svincolati da interessi elettorali per questo o quel candidato, come hanno dimostrato molte storie di siti di successo economico nati per sfruttare il potenziale virale delle notizie false intorno alle elezioni.
E tutto questo, per natura stessa di Facebook, era solo una parte percepibile di quello che stava accadendo dentro e intorno al social network, sostiene Madrigal citando Max Read del New York Magazine: «Persino il Presidente-Papa-Viceré Zuckerberg è apparso impreparato al ruolo che Facebook ha assunto nella politica mondiale nell’anno passato».
E poi, prosegue Madrigal, ci sono i russi: i movimenti su Facebook provenienti dalla Russia intorno alla campagna elettorale sono ampiamente documentati ormai, e ammessi dallo stesso Facebook negli scorsi mesi con palese imbarazzo e revisioni di precedenti certezze da parte di Zuckerberg. Un rapporto prodotto dallo stesso Facebook quest’anno dice tra l’altro: “Dobbiamo estendere l’attenzione alla sicurezza, per aggiungere ai comportamenti scorretti tradizionali – come il furto di account, il malware, lo spam, le truffe finanziarie – forme più sottili e insidiose di abuso, compresi i tentativi di manipolare il dibattito civile e ingannare la gente”. Una delle cose che il rapporto descrive come spiazzanti per i meccanismi di controllo e vigilanza di Facebook è avere a che fare con fenomeni che non hanno obiettivi strettamente economici nell’uso improprio delle promozioni e delle campagne su Facebook, e per i quali la deterrenza di difese che facciano leva appunto sulle perdite economiche non è efficace. “Non se lo aspettavano”, dice Madrigal.
Sommiamo tutto questo. Il caos di una piattaforma da un miliardo di utenti che domina aggressivamente la distribuzione dei contenuti e delle news. La nota efficacia elettorale di Facebook. L’assedio di notizie false e disinformazione su internet in generale e su Facebook in particolare. Le operazioni russe. Tutte cose che conoscevamo.
E lo stesso nessuno le ha messe insieme. Il social network dominante aveva alterato il panorama dell’informazione e della persuasione oltre ogni precedente raccogliendo gran parte dello stimato miliardo e quattro di dollari investiti in pubblicità online durante le elezioni. C’erano centinaia di milioni di dollari in promozioni oscure al lavoro. Fake news un po’ ovunque. Ragazzini macedoni che producevano campagne a favore di Trump. Un sistema di informazione rabbiosamente fazioso che ti dava solo le notizie che volevi sentire. Come credere a cosa? Che spazio restava per le politiche quando tutto questo stava divorando i news feed? Chi diavolo sapeva cosa stesse succedendo?
Che lo si sapesse poco, lo dimostra un articolo del Washington Post di agosto 2016 citato da Madrigal: si dice che Trump sta conducendo una campagna vecchio stile basata sulla tv, mentre Clinton lo sta superando grazie all’uso accorto e competente di nuovi strumenti, con “la campagna presidenziale più digitale di sempre”. Invece, intanto, Trump stava investendo decine di milioni di dollari nel costruire e sovvenzionare strutture in grado di studiare il traffico digitale delle informazioni su Facebook, di orientarlo, di modificarlo. Ma osservatori e giornalisti, ricostruisce Madrigal, erano troppo convinti della solidità di un assunto formatosi negli anni precedenti: che i più familiari e adatti a sfruttare le opportunità delle tecnologie digitali fossero i liberal di ogni categoria, perché più giovani, perché prevalenti nelle società innovative della west coast, perché progressisti. Internet da anni faceva il gioco politico dei Democratici e lo avrebbe fatto sempre di più, diceva l’assunto: era con l’elezione di Obama e con i suoi esperti consulenti che il tema dell’uso dei social network nelle campagne elettorali era diventato rilevante, mostrando il gap con l’inadeguatezza dei Repubblicani su questo fronte.
Insomma: non è che nessun giornalista, esperto di società digitali o ingegnere avesse immaginato il rilievo elettorale incombente di Facebook – era ineludibile – ma tutti gli indizi suggerivano che del cambiamento avrebbero beneficiato i Democratici. E per dirla tutta, la maggior parte dei giornalisti e dei professori è progressista quanto i tecnologi della Silicon Valley, quindi questa conclusione rassicurava perfettamente i professionisti in questi settori.
Nei giorni prima delle elezioni lo Huffington Post dava alla vittoria di Clinton il 98,3 per cento di probabilità e criticava il famoso statistico Nate Silver per essersi limitato a un 64,7 per cento di probabilità che Trump venisse sconfitto: «Se volete affidarvi ai numeri, potete stare tranquilli. Per lei è fatta».
Intanto, invece, Bannon andava spiegando serenamente: «Non sarei salito a bordo, Trump o non Trump, se non avessi saputo che stavano costruendo questa enorme macchina su Facebook e sui dati. È Facebook che ha lanciato Breitbart verso un pubblico enorme. Conosciamo la sua potenza».
Com’è andata, lo sappiamo. La ricostruzione dell’Atlantic dà a momenti l’impressione di voler mettere dentro un’unica narrazione coerente fattori e vicende diversi e il cui rilievo non è del tutto dimostrato: ma lo fa con abbondanza di sostanza, dati e analisi che mostrano che diversi di questi sviluppi non vengono scoperti ora. Concludendo così.
I sistemi di informazione che le persone usano per elaborare le notizie sono stati dirottati su Facebook, e lungo il percorso sono stati in gran parte alterati e sottratti alla vista. Non è stato solo il pregiudizio liberal che ha impedito ai media di fare due più due. Molte delle centinaia di milioni di dollari spesi durante la campagna elettorale sono stati investiti in formati di “dark ads”, promozioni oscure.
La verità è che mentre molti giornalisti sapevano che qualcosa stava succedendo su Facebook, nessuno sapeva tutto quello che stava succedendo su Facebook: nemmeno Facebook. E così, mentre avviene la più rilevante trasformazione della tecnologia politica dai tempi della televisione, i primi tentativi di ricostruzione storica sono pieni di turbini indecifrabili e pagine vuote. E si avvicinano le elezioni di metà mandato del 2018.

Le notizie false e noi

Le responsabilità dei social network, quelle dei giornali e quelle dei lettori: guida per orientarsi in una discussione complessa ma necessaria

di Emanuele Menietti – @emenietti
Il Post - 26 novembre 2016
L’improbabile vittoria di Donald Trump alle presidenziali negli Stati Uniti ha riaperto il dibattito sulle notizie false, sulle loro conseguenze, sulla loro diffusione online – soprattutto attraverso i social network – e sugli strumenti che il sistema dei media dovrebbe adottare per ridurre il fenomeno, recuperando fiducia nei confronti dell’opinione pubblica. In pochi giorni sui giornali statunitensi sono state pubblicate decine di articoli rendendo ancora più fecondo un dibattito che già esisteva prima dell’elezione di Trump, ma che raramente era stato al centro dell’attenzione dei media e del grande pubblico, se non temporaneamente e per la tenacia di alcuni analisti e osservatori dei mezzi di comunicazione. Le posizioni e le tesi sono innumerevoli e vanno dagli articoli colpevolisti, soprattutto nei confronti di Facebook, a quelli autoassolutori delle testate giornalistiche, passando per contrite assunzioni di responsabilità e proposte costruttive per provare a superare il problema delle false notizie, o per lo meno per arginarne la diffusione.
È davvero colpa di Facebook?
Le prime analisi pubblicate subito dopo le elezioni negli Stati Uniti avevano attribuito a Facebook una responsabilità centrale nella diffusione di notizie false, che secondo alcuni avrebbero condizionato direttamente il risultato elettorale favorendo Donald Trump. Mark Zuckerberg, il CEO della società, aveva rapidamente liquidato queste accuse spiegando di ritenere “molto improbabile che le bufale abbiano cambiato l’esito delle elezioni in una direzione piuttosto che in un’altra”. Zuckerberg aveva inoltre sostenuto che “più del 99 per cento” dei contenuti su Facebook sono autentici, e che solo una minuscola porzione contiene notizie false e bufale, nemmeno tutte legate alla sola politica. Le dichiarazioni di Zuckerberg avevano portato a nuove critiche, soprattutto perché non fornivano elementi e dati concreti a loro sostegno. Tra i più duri c’era stato William Turton di Gizmodo, che aveva invitato a smettere di prendere per oro colato tutto ciò che dice Zuckerberg a proposito della sua azienda, criticandolo soprattutto per non rendere pubblici i dati (in forma anonima e aggregata) sul comportamento degli utenti, unico modo per comprendere l’effettivo ruolo delle notizie false nell’elezione di Trump e le modalità con cui riescono a proliferare sul social network. Turton aveva ricordato inoltre che il problema della scarsa trasparenza di Facebook risale a molto prima dell’elezione di Trump: il social network raccoglie ogni giorno miliardi di informazioni su ciò che fanno i suoi iscritti, ma non le mette a disposizione dei ricercatori interessati a studiare le dinamiche sociali sul Web. Facebook ha collaborato in passato con progetti di ricerca limitati, fornendo solo dati parziali sulle attività degli utenti. Senza quei pezzi di informazioni è molto difficile che si possa studiare con accuratezza che cosa è successo nell’ultimo anno, durante la campagna elettorale e subito prima delle elezioni, sul piano delle notizie false e non solo.
Dopo essere rimasto per giorni in uno stato di “completo rifiuto”, come hanno scritto diversi osservatori, domenica 20 novembre Mark Zuckerberg è tornato sul tema delle notizie false su Facebook adottando tutt’altro tono e annunciando di volerlo affrontare in modo più determinato e incisivo. Seppure continuando a sostenere che “la percentuale di disinformazione su Facebook è relativamente bassa”, Zuckerberg ha elencato i punti della nuova strategia contro le notizie false:
• impiegare algoritmi che identifichino i contenuti che gli utenti probabilmente segnalerebbero come bufale, in modo da rimuoverli ancora prima che vengano segnalati;
• semplificare la segnalazione dei contenuti falsi da parte degli utenti;
• coinvolgere organizzazioni esterne a Facebook per confrontarsi sulla moderazione dei contenuti;
• etichettare le notizie ritenute false;
• migliorare la qualità degli articoli correlati, che compaiono sotto un post quando si mette “Mi piace” nella sezione Notizie;
• impedire ai siti di notizie false di usare il sistema per la pubblicità online di Facebook, tagliando una delle loro principali fonti di ricavo;
• confrontarsi con media e giornalisti per avere altri suggerimenti e consigli.
Zuckerberg ha concluso il suo post ricordando che non tutti i nuovi propositi potrebbero funzionare al primo colpo, ma che la riduzione delle notizie false resta una priorità per Facebook. Il suo impegno è stato accolto positivamente, anche dai più critici, che però hanno ricordato che nel post manca un pezzo importante della storia: un’analisi, con dati e trend, per capire quale ruolo abbia avuto il social network nelle presidenziali degli Stati Uniti.
L’editoriale del New York Times
Facebook è stato criticato anche dal New York Times, che il 19 novembre ha pubblicato un editoriale sulla diffusione delle notizie false online partendo da questo assunto: la responsabilità è in primo luogo dei siti che pubblicano bufale, di solito con sensazionalismi che attirino clic per guadagnarci con la pubblicità, ma “aziende attive su Internet come Facebook e Google hanno buona parte della responsabilità per questa piaga, avendo reso possibile la condivisione delle notizie false con milioni di utenti quasi istantaneamente e senza la capacità di bloccarle”.
L’editoriale cita un articolo molto interessante pubblicato su BuzzFeed da Craig Silverman, giornalista che si occupa da tempo della genesi e della diffusione delle notizie false online, secondo cui negli ultimi tre mesi della campagna presidenziale negli Stati Uniti le 20 notizie false più di successo su Facebook hanno avuto un seguito maggiore (in termini di condivisioni, “Mi piace” e commenti) rispetto ai 20 articoli più di successo diffusi da veri siti di informazione. Alcune di queste notizie false sono state riprese, volontariamente o inconsapevolmente, dai candidati alle elezioni per il Congresso e in alcuni casi dallo stesso Trump, creando un circolo vizioso che ha portato a renderle più credibili e di conseguenza ancora più condivise sui social network.
Il New York Times scrive che Facebook ha già fatto qualche progresso dopo le elezioni, come l’annuncio di non fornire il suo servizio per le pubblicità ai produttori di notizie false, ma che “deve ai suoi utenti, e alla stessa democrazia” uno sforzo molto maggiore. Nel corso degli ultimi anni Facebook ha modificato numerose volte i suoi algoritmi per filtrare e modulare i contenuti che ogni utente vede nella sezione Notizie, in modo da aumentare la partecipazione e di conseguenza i tempi di permanenza sul social network (con conseguenti benefici per la pubblicità). I contenuti sono mostrati in modo personalizzato in base alle abitudini dei singoli utenti, alle cose che loro stessi condividono, ai “Mi piace” che mettono ai post degli altri e a quanto tempo dedicano a commentare e leggere i commenti degli altri. In molti si sono chiesti perché Facebook non possa utilizzare i suoi algoritmi anche per identificare rapidamente i post contenenti notizie false, mostrandoli meno nella sezione Notizie ed eliminandoli nei casi più estremi.
Chi decide cosa moderare su Facebook
Nella prima metà di quest’anno, Facebook ha dovuto fare i conti con altre polemiche legate al modo con cui seleziona e mette in evidenza alcuni articoli nella versione statunitense della sezione Notizie: il social network era stato accusato di manipolazione nella scelta degli argomenti di tendenza, quelli più discussi dagli utenti, e di avere favorito gli articoli della stampa progressista rispetto a quella conservatrice. Facebook ha risposto alle accuse organizzando incontri con delegazioni di politici e giornalisti conservatori ed eliminando la selezione editoriale (quindi svolta da persone) affidando l’intero sistema ad algoritmi, che in alcuni casi hanno però favorito la diffusione di notizie false. Secondo fonti interne all’azienda, Facebook avrebbe inoltre evitato di introdurre nuovi filtri per limitare le notizie false, nel timore che si potesse ridurre la presenza di contenuti dai siti vicini ai Repubblicani, che in proporzione producono più articoli falsi di quelli a favore dei Democratici.
Facebook rifiuta da sempre di essere definito anche come “media company”, una società editoriale, sostenendo di essere semplicemente un sistema per mettere in contatto le persone interessate a condividere i loro interessi. Nella pratica, però, Facebook sceglie e seleziona le notizie da mostrare (e il modo in cui farlo) per i suoi iscritti, raccontando e dando una rappresentazione del mondo come fanno gli altri media. E anche se algoritmi e sistemi automatici hanno un ruolo preponderante nel formare questa gerarchia e questa idea di mondo, dietro le quinte del social network ci sono comunque migliaia di persone il cui compito è decidere se eliminare o meno post, commenti e altri contenuti segnalati dagli utenti come volgari, violenti, molesti o recanti falsità. Come una redazione.
NPR ha condotto una lunga indagine sulla moderazione dei contenuti all’interno di Facebook, intervistando impiegati ed ex dipendenti che hanno chiesto di non essere identificati per evitare possibili ripercussioni sul piano legale. Quando un contenuto viene segnalato su Facebook, spetta al “community operations team” controllarlo per decidere se rimuoverlo o meno. Questa divisione è cresciuta rapidamente negli ultimi anni e conta alcune migliaia di persone, concentrate soprattutto in alcuni uffici a Manila nelle Filippine e a Varsavia, in Polonia. Facebook ha quasi 1,8 miliardi di utenti, quindi ogni giorno il numero di segnalazioni è enorme: ogni impiegato del team è valutato soprattutto in base alla velocità con cui riesce a chiudere le segnalazioni. In media un impiegato revisiona un contenuto ogni 10 secondi, per una media giornaliera di 2.800 post al giorno, secondo i calcoli fatti da NPR. Una foto chiaramente vietata dal regolamento di Facebook può essere controllata e rimossa in pochi secondi, altri casi sono molto più complessi e ci si chiede quanto possa essere accurato un controllo di questo tipo.
La maggior parte dei contenuti non viene rimossa, ma NPR racconta che comunque ci troviamo davanti alla più grande operazione di verifica – o “censura” – nella storia dei media, e che tutto questo smentisce il fatto che Facebook sia una semplice piattaforma gestita con sistemi automatici senza intervento umano. Gli interventi riguardano soprattutto la pubblicazione di contenuti non consentiti, ma se ci sarà un maggiore controllo sulle notizie false, come promesso da Zuckerberg, è probabile che spetti a gruppi di lavoro come questi la responsabilità di fare almeno in parte le verifiche sulla veridicità dei contenuti. In assenza di conoscenze sufficienti e di meccanismi meno frenetici di controllo, molte cose potrebbero andare storte nella ricerca delle notizie false condivise sul social network. Per questo motivo diversi giornalisti ed esperti di media negli ultimi giorni hanno scritto che Facebook dovrebbe ammettere, in primo luogo a se stesso, di essere anche una media company e di avere bisogno di qualcuno che sappia gestire questo suo aspetto, finora sottovalutato.
Un direttore editoriale per Facebook
Margaret Sullivan scrive sul Washington Post che i propositi di Zuckerberg sono una buona cosa, ma non sono sufficienti: “È tempo per una mossa più coraggiosa: Facebook dovrebbe assumere un direttore editoriale di punta, dargli le risorse, il potere e uno staff per prendere decisioni in campo editoriale”. Visto che il social network rifiuta la definizione di media company, Zuckerberg potrà definire questo nuovo incarico come preferisce, spiega Sullivan: l’importante è che ci sia qualcuno con le giuste competenze per occuparsene: “Qualsiasi sia il titolo, Facebook ha bisogno di qualcuno in grado di distinguere la foto di una bambina che ha vinto il premio Pulitzer da un caso di pedopornografia, e che può riconoscere una balla da una vera inchiesta giornalistica”. Il riferimento è alla rimozione avvenuta questa estate di un post di un giornale norvegese, che aveva pubblicato la famosa foto di Nick Ut del 1972 in cui si vede una bambina vietnamita che corre nuda, allontanandosi da un’area in cui è stato condotto un attacco aereo con il napalm.
Ben prima delle elezioni, del resto, molti osservatori avevano segnalato la necessità di trovare sistemi per segnalare le notizie false che circolano facilmente sui social network, per impedire che ottengano una risonanza (tra “Mi piace”, condivisioni e retweet su Twitter) tale da renderle inarrestabili. Spesso gli articoli dei media affidabili che le smontano non ricevono la stessa attenzione, lasciando quindi migliaia di persone convinte di cose completamente inventate. Prima delle presidenziali negli Stati Uniti è successo più volte, per esempio con la notizia falsa secondo cui Trump avesse ricevuto l’esplicito sostegno da parte di papa Francesco.
Le notizie false oltre Facebook
In assenza di informazioni dettagliate da parte di Facebook è difficile dire con certezza quale peso abbia avuto il social network nelle presidenziali statunitensi, e più in generale quanto le notizie false abbiano influito sulla campagna elettorale. Molti osservatori sono convinti che Facebook sia stato usato dai media come un capro espiatorio, una facile soluzione per identificare un colpevole e al tempo stesso assolversi da eventuali responsabilità. Gregory Ferenstein ha scritto sul Washington Post che anche se non ci fossero state notizie false su Facebook, probabilmente chi utilizza Internet le avrebbe trovate e condivise lo stesso per altre vie, citando diverse ricerche condotte negli ultimi anni sul comportamento di chi si informa principalmente online attraverso social network, siti di informazione, forum e contatti.
Prima di Internet e la diffusione delle televisioni via cavo, osserva Ferenstein, giornali e televisioni nazionali avevano goduto di “un’era dell’oro” da custodi delle notizie utilizzate dall’opinione pubblica per formarsi un’idea: “A buona parte dell’America arrivavano le stesse notizie, mentre i punti di vista alternativi erano sostanzialmente esclusi dalla TV e dalla carta stampata”. Ora il pubblico non è più loro “prigioniero” e i lettori possono accedere alle notizie un po’ ovunque, vere o false che siano: “Facebook consente alle persone di trovarle e condividerle più facilmente, ma se non esistesse, ci sarebbe qualcos’altro”. E c’è già altro: canali televisivi via cavo, siti e organizzazioni – soprattutto vicine ai Repubblicani – che pubblicano notizie false, che hanno successo semplicemente perché ci sono persone dall’altra parte disposte a crederci e contente di avere un rinforzo alle loro convinzioni.
Trump ha alimentato tutto questo dicendo praticamente a ogni comizio che “il sistema dei media è truccato” e che i giornalisti sono sempre contro di lui. Durante la sua campagna elettorale ha invitato i suoi sostenitori a informarsi online da fonti alternative, non dai media tradizionali, facendo l’esempio di siti come Drudge Report Breitbart e riprendendo le notizie di siti meno conosciuti, che spesso non citano nemmeno le fonti delle informazioni che pubblicano.
Il problema di fondo è che se le notizie false proliferano è perché c’è qualcuno disposto a crederci: intenzionalmente se gli fa comodo, o inconsapevolmente se non hanno gli strumenti e le capacità per riconoscere una bufala, soprattutto se questa viene ripresa da qualcuno di cui si fidano. L’ex generale Michael Flynn, scelto come consigliere per la sicurezza nazionale da Trump, poco prima delle elezioni aveva per esempio condiviso una notizia falsa in cui si diceva che Hillary Clinton era coinvolta in uno scandalo di riciclaggio di denaro e di crimini di altro tipo a sfondo sessuale: era una bufala, ma il suo tweet fu ricondiviso più di 8mila volte.
Riconoscere le notizie false
Un recente studio della Stanford University indica chiaramente le difficoltà che incontrano molte persone nel riconoscere le notizie false, soprattutto tra i più giovani. La ricerca ha coinvolto 7.804 studenti che frequentano scuole secondarie e college e ha mostrato come per loro sia quasi sempre irrilevante la fonte della notizia che stanno leggendo. Molti studenti, per esempio, hanno valutato più credibili certe notizie semplicemente sulla base della quantità di dettagli contenuti nel tweet, aggiungendo di considerare più affidabili i tweet che contengono anche una grande fotografia. Lo studio ha rilevato come ci sia una chiara difficoltà anche a riconoscere un articolo scritto a scopi pubblicitari da un normale articolo informativo.
Niente mediazione e scarsa fiducia
L’aumento dell’offerta informativa ha reso più evidenti le complessità e le contraddizioni del mondo, trasformando progressivamente il ruolo dei giornalisti, il cui compito principale oggi dovrebbe essere fare una selezione nel marasma delle notizie e aiutare l’opinione pubblica a restare informata su ciò che davvero importa. In parte per loro responsabilità dirette, i giornalisti hanno perso rapidamente il carico di fiducia riposto dai lettori nei loro confronti, mentre è cresciuta la convinzione che Internet offra i fatti e che sia meglio accedervi direttamente, senza alcuna mediazione.
La sfiducia nei giornalisti è comune in molte democrazie occidentali e probabilmente è paragonabile solo a quella nei confronti dei politici. Negli Stati Uniti solo il 18 per cento della popolazione dice di fidarsi delle notizie a livello nazionale e il 22 per cento di quelle a livello locale. Tre statunitensi su quattro pensano che le grandi organizzazioni che fanno informazione contribuiscano a tenere al loro posto i politici, ma più o meno la stessa percentuale pensa che il sistema dei media sia fazioso. Lo pensano di più i sostenitori dei Repubblicani rispetto a quelli dei Democratici, ed è indubbio che a questa differenza abbiano contribuito gli stessi esponenti politici conservatori e i siti e le radio del medesimo schieramento politico.
L’elezione di Trump (e prima ancora il risultato di Brexit) ha ampliato a dismisura il dibattito sulla disinformazione e, come ha ricordato sul suo blog il direttore del Post, Luca Sofri: “Il mondo ha scoperto i rischi delle democrazie informate male, rischi che erano stati sottovalutati, ma che erano arcinoti”. La disinformazione esisteva prima di Internet: con l’avvento della Rete si è semplicemente aggiunto un nuovo strato a un fenomeno complesso e dai contorni piuttosto sfumati. La disinformazione ha dentro un po’ di tutto: errori in buona fede, incomprensioni, faziosità, la crisi dei giornali, la scarsa inclinazione dei giornalisti a fare verifiche, la tendenza a rendere semplicistiche le spiegazioni di fenomeni complessi, senza dimenticare il fatto che informarsi costa fatica e che non tutti sono interessati a farlo. I social network hanno probabilmente amplificato il problema, offrendo tra le altre cose scorciatoie per i media in difficoltà, alla ricerca di clic e di soluzioni per mantenere i loro modelli di business basati sulla pubblicità che richiedono grandi quantità di lettori e di pagine viste per essere sostenibili.
Da dove arrivano le notizie false
Ci sono migliaia di siti poco affidabili che pubblicano ogni giorno notizie false, con articoli dai titoli eclatanti per attirare l’attenzione soprattutto sui social network. Non tutte fanno breccia, ma è sufficiente un retweet di un personaggio un po’ in vista, o una condivisione su una pagina di Facebook molto frequentata per avviare il circolo vizioso che darà più visibilità alla bufala, talvolta facendola finire anche sui media tradizionali. Che le bufale siano un business era noto da tempo, ma in alcuni casi durante la campagna elettorale statunitense sono anche diventate uno strumento politico utilizzato soprattutto per screditare Hillary Clinton. Gli esempi in questo senso sono numerosi e si va dagli strani siti gestiti dalla Macedonia, con bufale di ogni tipo sulla candidata dei Democratici, a iniziative più sofisticate come rivelato di recente dal Washington Post.
Due gruppi di ricercatori, che hanno lavorato separatamente all’analisi delle notizie false durante la campagna elettorale, hanno notato che “il flusso di notizie false in questa stagione elettorale è stato rinforzato da una campagna di propaganda dalla Russia creata per diffondere articoli ingannevoli con l’obiettivo di sfavorire Hillary Clinton, aiutando Donald Trump, e danneggiando la fede nei confronti della democrazia americana”. Tracciando l’origine di particolari tweet e le connessioni di alcuni account sui social network, i ricercatori dicono di avere trovato un sistema organizzato per la diffusione di notizie false contro Clinton attraverso circa 200 siti, che hanno raggiunto un pubblico di lettori stimato intorno a 15 milioni di statunitensi. I loro post pubblicati su Facebook sono stati visti almeno 200 milioni di volte sul social network.
Le prove sui legami con la Russia sono consistenti, dicono i ricercatori, che hanno in molti casi trovato un coinvolgimento diretto di alcune testate molto conosciute come Russia Today (RT) e Sputnik, controllate dal governo russo e da Vladimir Putin, già accusato di aver ordinato attacchi informatici contro il Partito Democratico e il comitato Clinton. Anche queste organizzazioni hanno usato i loro account per diffondere notizie con illazioni su Clinton, raramente verificate o verificabili, contribuendo alla creazione dei circoli viziosi che autoalimentano la diffusione delle bufale su Internet, talvolta con strascichi anche sui media tradizionali. Nelle ultime settimane di campagna elettorale questi siti hanno diffuso notizie sui presunti brogli durante le operazioni di voto senza fornire prove concrete, un tema ripreso spesso durante i comizi dallo stesso Trump. I ricercatori dicono che il sistema di propaganda era evidente, ma che sarà difficile quantificare il suo peso nel convincere gli elettori indecisi a votare per Trump e non per Clinton. Mathew Ingram su Fortune ha però sollevato alcuni dubbi sulle due ricerche e le ha definite vaghe e generiche, soprattutto sui metodi utilizzati per le analisi e le fonti utilizzate.
Scoop che non lo erano
In altri casi, le notizie false sono semplicemente il frutto di informazioni comunicate male e incomprensioni, agganciate però rapidamente dai media che ne hanno amplificato la portata. Il fenomeno è stato raccontato efficacemente dal New York Times citando il caso di un tweet di Eric Tucker, un uomo di 35 anni di Austin, Texas, che in poche ore è diventato un caso nazionale per uno scoop che non lo era. Il giorno dopo l’elezione di Trump, Tucker ha visto alcuni autobus in fila in una strada della sua città, poco distante da dove era stata organizzata una manifestazione contro il nuovo presidente eletto: ha dedotto che i due fatti fossero collegati e ha pubblicato su Twitter le fotografie degli autobus, dicendo che erano stati usati per portare i manifestanti e che quindi non c’era nessuna manifestazione spontanea in corso. Quegli autobus erano invece lì per un meeting di sviluppatori organizzato da un’azienda che si chiama Tableau Software.

Il tweet di Tucker è stato segnalato su un canale di conservatori su Reddit e in seguito sul forum Free Republic, il cui link è stato poi condiviso più di 300mila volte su Facebook. Solo il giorno dopo, il 10 novembre, quando ormai il tweet di Tucker era ovunque, un giornalista si è messo in contatto con il responsabile degli affari aziendali di Coach USA, per chiedere chi avesse effettivamente affittato gli autobus per Austin. La falsa notizia aveva però ormai raggiunto una tale massa di post sui social network e articoli sui siti dei conservatori da essere inarrestabile. Lo stesso Trump nella sera del 10 novembre ha scritto un tweet in cui parlava di “manifestanti professionisti, incitati dai media” contro di lui.
Just had a very open and successful presidential election. Now professional protesters, incited by the media, are protesting. Very unfair!
— Donald J. Trump (@realDonaldTrump) November 11, 2016
L’11 novembre Tucker ha rimosso il suo tweet, sostituendolo con un altro in cui mostrava lo screenshot del contenuto rimosso con la scritta “FALSO”. La smentita della stessa notizia sbagliata che aveva dato Tucker è circolata pochissimo, se confrontata con la quantità enorme di retweet e condivisioni su Facebook del tweet originale. Lo stesso sito Snopes, che si occupa di smentire le notizie false e le bufale, ha ricevuto un numero infinitesimale di condivisioni del suo articolo in cui smontava la storia di Tucker. Molte persone ancora oggi credono che a Austin le proteste fossero organizzate con manifestanti portati con gli autobus: è impossibile dire quante siano, ma siamo nell’ordine delle migliaia.
Che fare?
Le analisi sulla crescente diffusione delle notizie false, e sul loro ruolo nell’elezione di Trump, sono ormai innumerevoli e continuano a esserne pubblicate di nuove, ma sono rari gli articoli che mettono in discussione il ruolo dei media nel fenomeno e che propongono soluzioni, per lo meno per arginare il problema. Tra gli interventi più interessanti sul “cosa possiamo fare”, c’è un lungo post scritto su Medium da Jeff Jarvis, rispettato studioso di comunicazione e nuovi media, che elenca una serie di consigli con la premessa che “le singole piattaforme non dovrebbero essere messe nella posizione di decidere cosa è falso e cosa è vero”.
Il primo consiglio è dare ai lettori la possibilità di segnalare più facilmente le notizie false alle piattaforme che le stanno mostrando, come Facebook, Twitter, Google, Bing, YouTube e gli altri servizi per la pubblicazione e la condivisione di contenuti. I social network dovrebbero inoltre concordare con i siti di news più affidabili e istituzionalizzati (agenzie di stampa internazionali, grandi quotidiani e altre media company) l’utilizzo di codici nelle loro pagine per rendere più riconoscibili le notizie affidabili e dare loro maggiore risalto, per esempio nelle notizie correlate che Facebook mostra quando si clicca sull’anteprima di un articolo: nel caso di una notizia falsa, le correlate potrebbero mostrare sistematicamente gli articoli che le smentiscono.
I motori di ricerca e i social network potrebbero inoltre utilizzare sistemi di analisi sui siti e sugli account, per identificare quelli creati da poco tempo al solo scopo di diffondere notizie false: è assurdo che talvolta abbiano la stessa evidenza di articoli pubblicati da fonti più autorevoli, che sono magari in circolazione da anni. I siti d’informazione dovrebbero inoltre rendersi il più riconoscibili possibile sui social network, per contrastare la progressiva generalizzazione da parte dei lettori “l’ho letto su Facebook”.
Per contrastare il fenomeno per cui ogni utente finisce quasi sempre per leggere notizie da determinate fonti di parte, con cui si trova più a proprio agio, i social network potrebbero proporre nei loro feed di tanto in tanto articoli da fonti d’informazione diverse, ma comunque affidabili, cui non si è iscritti. Gli utenti manterrebbero la possibilità di escludere quei contenuti, ma mostrarglieli almeno una volta potrebbe comunque essere utile per incentivarli a guardare un poco oltre la loro bolla. I siti di news dovrebbero seguire l’esempio di Snopes, creando sezioni in cui si occupano di smontare le bufale e le notizie false.
Facebook permette da tempo di modificare un proprio post dopo la pubblicazione, con un sistema molto trasparente che mostra comunque la cronologia delle modifiche; Twitter dà solo la possibilità di cancellare i tweet, ma non di correggerli. La vicenda del tweet di Tucker sugli autobus di Austin è la dimostrazione che Twitter dovrebbe studiare un sistema più adeguato non solo per dare la possibilità di modificare un tweet, ma anche per inviare notifiche agli utenti che l’hanno visto e avvisarli che qualcosa è cambiato, nel caso in cui sia stata diffusa una notizia inesatta. Se fosse stato possibile nel caso di Tucker, migliaia di persone avrebbero scoperto più facilmente che la storia degli autobus non stava in piedi.
I siti di notizie dovrebbero inoltre studiare meglio i meccanismi che determinano il successo di alcune iniziative online, come per esempio i meme che raccolgono centinaia di milioni di visualizzazioni e migliaia di condivisioni sui social network. Intorno ai meme c’è un bacino enorme di lettori che può essere raggiunto e non si deve escludere a priori di farlo con i mezzi che li attirano di più, a patto che i contenuti offerti siano corretti e utili per aumentare i livelli d’informazione. Organizzazioni e fondazioni che coinvolgono giornali, social network, università, ricercatori, ingegneri informatici e istituzioni per affrontare il tema potrebbero fornire nuovi punti di vista e strumenti.
Notizie false e bufale rendono le democrazie meno informate e riducono nei fatti la capacità di ciascuno di comprendere il mondo che abbiamo intorno e, in una certa misura, noi stessi. In molte analisi e articoli usciti nelle ultime settimane, i lettori sono stati trascurati, quasi tenuti in disparte, eppure nelle nostre società iperconnesse il loro ruolo è centrale nella moltiplicazione dei canali e delle opportunità attraverso i quali si diffondono e hanno successo le notizie false. Non hanno un ruolo passivo e, i più informati e con maggiori strumenti, dovrebbero essere i primi a farsi sentire nelle loro reti sociali, per spiegare a chi è meno informato che sta riprendendo una balla e a dargli qualche dritta per non cascarci più. Questo non significa azzerare le responsabilità di chi ha prodotto le bufale o minimizzare il ruolo dei media e dei giornalisti, che come abbiamo visto è enorme e ha mille implicazioni, ma semplicemente estendere a tutti la responsabilità di risolvere il problema. Condividerla.