Ogni giorno vengono rilasciate innumerevoli notizie che si contendono la nostra attenzione e che spaziano dalla politica, alla salute, allo sport, ai cambiamenti climatici, alla guerra in Ucraina. L'infinita quantità e ampiezza di informazioni, disponibili istantaneamente sotto forma di articoli di cronaca, videoclip, foto o altri media su siti web di notizie, piattaforme di social media, televisione, radio e altre fonti, può sembrare opprimente. C'è da stupirsi che molti di noi facciano fatica a gestire il sovraccarico di informazioni e persino a discernere i fatti dalla finzione online?
Di recente, gran parte del ciclo di notizie globali si è giustamente concentrato sul conflitto in Ucraina. Tutto è iniziato con le immagini satellitari dei movimenti dell'esercito che segnalavano il rischio di una possibile invasione russa. Poi, nella notte del 24 febbraio, sono cominciati a giungere filmati macabri dall'Ucraina, quando i cittadini si sono riversati sui social media per postare video e foto di carri armati che entravano nelle strade e di razzi che cadevano dal cielo, lasciando dietro di sé la distruzione.
Da allora, tutti noi abbiamo potuto osservare la guerra sui nostri telefoni con dettagli mai visti prima; non per niente la guerra è stata soprannominata la "prima guerra di TikTok". Il popolo ucraino può utilizzare la portata di piattaforme come TikTok, Twitter e Instagram per mostrare al mondo ciò che sta vivendo. In effetti, quasi da un giorno all'altro, alcune di queste app sono passate dal mostrare video di danza a scene di guerra e appelli per il sostegno umanitario, attirando innumerevoli visualizzazioni e condivisioni. Ma entrambe le parti in guerra hanno accesso a queste piattaforme, che diventano un campo di battaglia digitale per influenzare milioni di persone in tutto il mondo.
Ma sappiamo sempre cosa stiamo realmente guardando?
Nel 2008, dopo il successo della copertura della Coppa del Mondo FIFA 2006 che includeva video e foto scattate dai tifosi di calcio, la CNN ha lanciato iReport, un sito web di "citizen journalist". Chiunque poteva caricare online i propri contenuti per il grande pubblico. All'epoca, il vicepresidente esecutivo di CNN News Service Susan Grant garantì che da quel momento "la comunità deciderà quali sono le notizie", precisando che le pubblicazioni sarebbero state "completamente non verificate".
La convinzione della CNN si basava sull'idea che il citizen journalism è "emotivo e reale". Nel 2012 erano state pubblicate 100.000 storie e 10.789 erano state "verificate per la CNN, il che significa che sono state controllate e approvate per essere trasmesse". Ma questo significa che le altre 89.211 erano vere? CNN iReport è stato chiuso nel 2015. Nel 2022, la disinformazione è uno dei maggiori problemi della società mondiale.
Quello che crediamo non è necessariamente reale
Secondo una ricerca del MIT, pubblicata nel 2018, che ha analizzato le notizie condivise su Twitter, "la falsità si diffonde in modo significativamente più lontano, più veloce, più profondo e più ampio della verità", anche dopo aver rimosso i bot e aver considerato solo le interazioni umane reali. I risultati sono sorprendenti, al punto da concludere che "le falsità avevano il 70% di probabilità in più di essere ritwittate rispetto alla verità".
Una manciata di ragioni spiega la nostra complessa realtà sociale. In effetti, alla fine il problema di fondo potrebbe essere qualcosa di cui siamo tutti vittime: i pregiudizi cognitivi. Se da un lato può essere utile per la nostra vita quotidiana, anche solo per permetterci di ricordare processi appresi in precedenza e riconoscere situazioni familiari, dall'altro può lasciarci esposti a scorciatoie mentali e punti ciechi. Una conversazione tra due persone che si trovano su entrambi i fronti della guerra in Ucraina ne è un chiaro esempio: entrambe le parti credono di agire razionalmente e si accusano a vicenda di essere prevenuti e di non cogliere la complessità della realtà. Da questo momento in poi, ciascuno sarà più aperto a consumare notizie che confermano la propria prospettiva, anche se si tratta di notizie false.
Se in genere ci circondiamo di persone con cui condividiamo la stessa visione del mondo, sui social media questa tendenza è ancora più marcata e ci rende molto più propensi a partecipare a una discussione. Online ci viene presentata una realtà filtrata, costruita da un algoritmo che modella le nostre circostanze virtuali e ci alimenta con la convalida di qualsiasi idea abbiamo. Sui social media siamo all'interno della nostra bolla, il luogo in cui abbiamo sempre ragione. Frances Haugen, una whistleblower di Facebook, ha dichiarato al Parlamento britannico che "la rabbia e l'odio sono il modo più semplice per crescere su Facebook".
L'enorme quantità di disinformazione, tuttavia, non è una tendenza del XXI secolo. Propaganda, disinformazione e fake news hanno polarizzato l'opinione pubblica nel corso della storia. Oggi, però, sono istantanee e facilmente condivisibili.
Un recente articolo pubblicato su Nature riflette sull'esperienza della pandemia del 1918 e sui rischi che potrebbe avere un'epidemia futura. L'autrice, Heidi Larson, docente di antropologia presso la London School of Hygiene and Tropical Medicine, ha previsto che "la prossima grande epidemia non sarà dovuta alla mancanza di tecnologie preventive", ma "al diluvio di informazioni contrastanti, disinformazione e informazioni manipolate sui social media".
Troll e bot la fanno da padroni
Quando nel 2018 Larson ha scritto sulla diffusione della disinformazione, ha usato un termine che tutti abbiamo imparato a conoscere di recente: super-diffusori, proprio come per i virus. Un'immagine che spiega come i troll di Internet "creino scompiglio pubblicando deliberatamente commenti controversi e che infiammano gli animi".
Ma mentre alcuni di loro sono solo individui annoiati che usano il mantello dell'invisibilità di internet, altri lo fanno come lavoro, infiammando l'opinione pubblica e disturbando i processi sociali e politici. Questa è stata anche una delle conclusioni di due ricercatori di Oxford che hanno scoperto diversi esempi di come sia il governo che le aziende private gestiscano "truppe informatiche organizzate". Questi battaglioni di troll e bot usano i social media per plasmare le menti delle persone e amplificare "voci e idee marginali gonfiando il numero di like, condivisioni e retweet".
Come si comportano i social media in questo caso?
Più difficile che conoscere le persone che stanno dietro alle fake news è capire cosa possiamo fare per gestire i contenuti pubblicati sulle piattaforme online. Negli ultimi dieci anni, ha scritto il New Yorker nel 2019, Facebook ha rifiutato l'idea di essere responsabile del filtraggio dei contenuti, trattando invece il sito come uno spazio vuoto dove le persone possono condividere informazioni. Da allora, le fake news non solo hanno influenzato i risultati delle elezioni, ma hanno anche danneggiato le persone nella vita reale.
Anche Twitter, Telegram e YouTube sono stati pesantemente criticati per il loro approccio ai contenuti fuorvianti, con alcuni governi che hanno richiesto una maggiore responsabilità e hanno persino preso in considerazione la possibilità di regolamentare questi servizi per la diffusione di contenuti vietati o di idee false ed estremiste.
Nel gennaio 2022, i siti web di fact-checking di tutto il mondo si sono rivolti a YouTube con una lettera aperta, avvertendo la più grande piattaforma video del mondo della necessità di intraprendere un'azione decisiva, principalmente "fornendo contesti e offrendo debunks", piuttosto che limitarsi a cancellare i contenuti video. Nella lettera si parla anche della necessità di "agire contro i recidivi" e di applicare questi sforzi "in lingue diverse dall'inglese".
Cosa si può fare?
Secondo Larson, "non esiste un'unica strategia che funzioni", suggerendo un mix tra campagne educative e dialogo. E mentre alcuni Paesi ottengono buoni risultati in termini di alfabetizzazione ed educazione digitale, altri non li ottengono. La disparità è grande, ma tutti convergiamo nello stesso spazio virtuale condiviso dove nessuno vuole veramente dialogare, ascoltare o impegnarsi.
Ma se le persone con un'alfabetizzazione digitale sono "più propense a distinguere con successo le notizie vere da quelle false", tutti hanno la stessa probabilità di condividere notizie false per la semplicità e l'immediatezza di un "clic". Questa è stata la conclusione di un altro recente studio del MIT, che ha messo in evidenza la necessità di altri tipi di strumenti.
È qui che entrano in gioco le piattaforme di fact-checking, che ricercano e valutano la qualità delle informazioni incluse in una notizia o in un post virale sui social media. Tuttavia, anche queste risorse hanno i loro limiti. Poiché la realtà non è sempre diretta, la maggior parte di questi siti web segue un indicatore simile a un barometro che va da "falso" a "per lo più falso", da "per lo più vero" a "vero". Allo stesso modo, la validità della ricerca può essere screditata da chi non vede confermate le proprie idee, dando ai falsi una vita quasi infinita.
Ma anche noi abbiamo un ruolo da svolgere quando si tratta di discernere il vero dal falso e, nel contesto di una guerra, questo "lavoro individuale" assume un'importanza ancora maggiore. Guardate il video di Tony Anscombe, Chief Security Evangelist di ESET, per scoprire alcuni consigli per distinguere i fatti dalla finzione.