Dark Light

La vittoria presidenziale di Donald Trump ha lasciato metà del mondo inorridito, mentre l’altra metà diceva “non ci credevi, te l’avevo detto”, scoperchiando numerose domande riguardo i flussi di informazioni online per poi richiamare i media e le piattaforme social ad assumersi alcune responsabilità. Ma possiamo davvero ridurre il fenomeno della disinformazione al mero uso improprio della Rete? Forse no. Per esempio, alcune teorie suggeriscono che la raffinatezza del nostro linguaggio umano si è evoluta per farci spettegolare. Che sia vero o meno, è innegabile che siamo creature sociali. Ma il modo in cui le informazioni passano da persona a persona, che sia con il gioco del telefono senza fili o a colpi di titoli clickbait, è il medesimo: la verità non arriva sempre così lontano.

Con il tempo, internet ha permesso alla verità di essere distorta. Le cosiddette camere dell’eco sono state gonfiate dagli algoritmi che hanno riempito i nostri social feed con contenuti che sono più pertinenti per noi, bloccando qualsiasi opinione diversa dalla tua. Lo sappiamo bene: spesso, questi feed sono pieni di titoli clickbait che sensazionalizzano le storie – a volte anche distorcendole pesantemente – e troppo spesso le persone le condividono a cuor leggero. Inoltre, adesso che tutti hanno una voce e uno spazio online, la proliferazione della disinformazione è diventata più veloce che mai.

Ma torniamo agli Stati Uniti. In questi ultimi anni, la colpa per l’elezione di Trump si è spostata in gran parte dagli elettori alle loro fonti di informazione. Le persone hanno deciso che i veri cattivi sono i giganti della Silicon Valley: Twitter, Facebook e Google in primis, per aver diffuso false notizie che diffamavano Clinton e aiutavano a eleggere un presidente impopolare.

Tra l’altro, va anche detto che il concetto di bolle di filtraggio non è affatto rivoluzionario: l’attivista di Internet Eli Pariser ha pubblicato The Filter Bubble: What the Internet Is Hiding from You nel 2011, prevedendo algoritmi sempre più sofisticati capaci di personalizzare la nostra esperienza di piattaforme social così da restringere la nostra visione del mondo. Oggi quella profezia si è avverata. Ma mentre le piattaforme social sono state indicate come capro espiatorio, è giusto anche dire che stanno paradossalmente dando alle persone ciò che vogliono: contenuti su misura.

Gli algoritmi sono solo un pezzo del puzzle. Ci sono anche molti contenuti pubblicati online che non contengono palesamente un solo granello di verità. Che si tratti del lavoro di Lercio o di semplici troll, molte persone ricondividono falsità online, anche solo per rendere il nostro feed più interessante. In questo contesto, nemmeno i quotidiani mainstream aiutano, poiché la scienza del clickbait ha contagiato i lanci e titoli, che hanno più possibilità di avere successo se il sentimento espresso nel testo è polarizzato. I titoli neutrali, insomma, non piacciono.

Inoltre, sappiamo che la disinformazione a volte non è solo frutto umano. Un buon 20% dei tweet relativi alle elezioni di Trump, ad esempio, proveniva da bot. Come suggerisce uno studio sul tema, la presenza di questi robot può influenzare la dinamica della discussione politica. A questo punto, forse dobbiamo farci una domanda a monte: a chi importa della verità?

Il fattore più importante, come abbiamo visto, non sono (solo) né le piattaforme social né i media tradizionali – ma le persone che le popolano e ne consumano i contenuti. I nostri feed sono pieni di ciò che abbiamo già cercato e visto (e probabilmente ci è piaciuto); gli articoli disinformativi non si diffonderebbero se le persone non cliccassero sul pulsante di condivisione. Condividiamoarticoli per assicurarci di essere percepiti come parte di un gruppo che la pensa in un certo modo, per confermare la nostra identità. Se condividiamo qualcosa e altre persone apprezzano ciò che abbiamo condiviso, la nostra uatostima si consolida.

Per quel che riguarda la notizie politiche poi, il gioco è ancora più semplice: se sei anti-Salvini, per esempio, e l’immagine che accompagna una news è un’immagine particolarmente dannosa nei confronti di Salvini, facilmente verrà cliccata e ricondivisa. Il cervello cerca sempre di fare il minimo sforzo. Gran parte di ciò deriva da un pregiudizio di conferma la tendenza umana a cercare informazioni che confermano ciò che già sappiamo.

Tendiamo a fare le cose che fanno le persone che ci piacciono e di cui ci fidiamo, perché ciò consente la coesione sociale. Tutti all’interno del gruppo si conformano al gruppo, altrimenti siamo estranei. La Rete ha velocizzato tutti i processi e le persone non pensano sempre alle cose nella misura in cui ci avrebbero pensato senza Internet, in una discussione al bar o sul posto di lavoro. Ciò che resta da vedere è se le piattaforme social faranno la differenza.

A parole sembra di sì. Facebook si è impegnato a bloccare siti di notizie false; Twitter già da un paio d’anni ha iniziato a bloccare parecchi account nel tentativo di combattere gli abusi online. È anche vero che se un feed di notizie iniziasse veramente a essere curato da Facebook – e non dagli algoritmi di Facebook, che sono almeno basati su ciascun individuo – sarebbe una prospettiva molto più spaventosa.

È una situazione difficile, ma non ci sono innocenti e anche i brand devono assumersi parte della responsabilità. Il Financial Times, ad esempio, ha abbandonato il suo paywall per 24 ore prima del referendum UE – dando a tutti coloro che lo desideravano accedere ai fatti – ed è per questo che contestualmente anche la LEGO ha promesso di interrompere la pubblicità.

Related Posts