Un lungo articolo pubblicato lo scorso 16 settembre dal Corriere della Sera analizza come un muratore calabrese di mezza età, attualmente disoccupato, sia diventato uno degli “influencer politici” più potenti d’Italia. Il signore in questione – che sulle sue pagine condivide concetti atavici scritti in Impact, il classico font dei meme – spiega onestamente che da tutti quei click lui ci guadagna circa 600 euro al mese e che per racimolare questi due spicci ideologicamente “va dove tira il vento”.
Nel linguaggio contemporaneo dei social, il vento è una metafora che non ha nulla a che fare con gli ideali storici della Destra e della Sinistra, ma piuttosto con la reazione pavloviava dell’utente, ovvero quel riflesso incondizionato che, facendo montare la rabbia del povero cittadino vessato dallo Stato, dalla politica, dagli immigrati, dall’obbligo dei vaccini e chi più ne ha, più ne metta, gli fa venire letteralmente la bava alla bocca.
Fomentato dal gruppo, che nel caso dei cani con la bava diventa il branco, il povero utente è automaticamente portato a commentare in modo sgrammaticato frasi senza senso compiuto, interpretare male la lettura di un testo, offendere senza offrire risposte concrete. In una parola, aggredire.
Nella quotidianità capita spesso di dover prendere decisioni in un lasso di tempo limitato. Che sia la marca di shampoo da acquistare, il partito da votare, la scuola dei bambini o l’università da frequentare, agiamo mossi da informazioni parziali, spesso elaborate dalla nostra mente in modo fallace. Non abbiamo abbastanza tempo per analizzare tutte le possibili conseguenze di una scelta in quanto il tempo, nel 2018, è una risorsa sempre più preziosa se paragonata alla quantità di informazioni che immagazziniamo ogni giorno nella nostra memoria, soprattutto grazie a Internet e a Facebook. E questi dati non sempre vengono gestiti al meglio dalle nostre menti.
La quantità d’informazioni prodotte negli ultimi due anni dovrebbe aggirarsi intorno al 90% di tutti i dati mai esistiti. La velocità con cui queste informazioni si propagano è altrettanto impressionante, ma il nostro tempo è limitato e, quando ci informiamo, ormai lo facciamo su un esiguo numero di piattaforme. Dall’agosto 2017 ad oggi, due terzi (il 70%) degli americani si sono informati prevalentemente sui social network. Il potere del networking è tale da far stimare che il numero di utenti attivi dei social media di tutto il mondo possa raggiungere i 3.02 miliardi entro il 2021. Circa un terzo dell’intera popolazione della Terra.
Più di tutte le altre fonti, sappiamo che i feed personalizzati dei social sono inclini a pregiudizi di base, spesso inconsci, detti bias cognitivi, che hanno influenzato la creazione del testo o la scelta dell’immagine che intravediamo nel nostro feed. Dato che moltissimi nel 2018 consumano notizie attraverso filter bubble create a partire dal loro attuale modo di pensare e di vedere il mondo, i punti di vista degli utenti risultano sempre più omologati.
Cosa succede quando la fonte della maggior parte delle nostre informazioni quotidiane è soggetta a un sistema di filtraggio predefinito? Si ottiene il “Social Network Opinion Bias”, il cui ironico acronimo è per l’appunto SNOB. Anche se stiamo parlando di errori di valutazione in cui la distorsione dell’opinione è dovuta all’influenza delle informazioni filtrate e condivise sulla piattaforma di riferimento, è divertente notare come l’etimologia del termine – utilizzato nel linguaggio comune per indicare coloro che ostentano distinzione e raffinatezza per identificarsi con una determinata classe sociale – in origine indicasse i “cittadini di basso ceto”, quegli individui estranei a un ambiente che esibivano atteggiamenti ritenuti all’apparenza colti. Un errore cognitivo che potrebbe riassumere gli errori di comunicazione del Partito Democratico nel corso dell’ultima campagna elettorale? Forse.
La maggior parte dei nostri profili online non sono altro che camere di risonanza di ciò che pensiamo già, nel bene e nel male, in cui è permessa solo una scuola di pensiero e coloro che non sono d’accordo sono invitati da più fronti a uscire dal gruppo. È un errore di valutazione basato su un pregiudizio chiamato bias di conferma, ovvero la nostra tendenza innata a cercare o interpretare le informazioni affinché confermino i nostri attuali preconcetti.
L’ascesa dei gruppi su Facebook ha accelerato il progresso di questo fenomeno. Apparentemente, la questione non sembra essere un problema. Che male c’è nell’interagire solo con quelli che già condividono le nostre opinioni?
Dagli anni ’70 fino alle grandi crisi, come quella di Wall Street del 2007, e in particolare negli ultimi due decenni, le società occidentali, grandi e piccole, sono diventate sempre più rigide nella loro polarizzazione politica. Quelli che si identificavano con le opinioni di destra si sono trincerati dietro le loro posizioni e il gruppo IO STO CON SALVINI (tutto maiuscolo) ne è un ottimo esempio.
Lo stesso vale per coloro che si rispecchiano in una non meglio identificata idea di “sinistra” alternativa e democratica, ma che poi su Facebook sentenziano manco fossero le SS. Le due parti raramente si incontrano e quando un individuo entra in un gruppo diverso, anche solo virtuale, è spesso soggetto ad assalti frontali o viene tacciato di essere un troll.
Gli effetti di questo modus cogitandi sulla nostra coscienza e sulla nostra percezione della realtà sono altamente distruttivi e ci inducono a errori di valutazione che generano effetti concreti.
È una conseguenza del framing, un’attitudine che ci porta a trarre conclusioni diverse partendo dalle stesse informazioni, a seconda di come e da chi tali informazioni vengono presentate. Se una persona che stimiamo posta una presa di posizione decisa su un argomento, tendiamo per natura – o semplicemente per pigrizia o peggio ignoranza – a condividerne acriticamente il punto di vista. Da quel momento, abbiamo l’impressione di notare quella stessa opinione ovunque. Si chiama frequency illusion, conosciuto anche come fenomeno Baader-Meinhof.
A queste “credenze”, ovvero opinioni personali assunte a verità assolute, si accompagna quello che viene definito l’hostile media effect, la tendenza a percepire la copertura giornalistica delle news – intese ormai come prodotto di una casta radical chic – come “di parte” rispetto alla posizione personale della “gente comune” su un determinato problema, che poi altro non è che la somma di opinioni soggettive masticate, assimiliate e sputate fino alla più totale mistificazione.
A questo c’è da aggiungere che se consideriamo “chic” intellettuali come Roberto Saviano – che hanno fatto del linguaggio immediato, comune e comprensibile il loro marchio di fabbrica – vuol dire che forse siamo caduti in un baratro in cui anche Salvini può essere considerato, a suo modo, “elegante”.
I risultati positivi di queste prese di posizione acritiche nella realtà non virtuale stentano però ad arrivare – d’altronde sono solo frutto di un errore di percezione e non di uno studio o di una valutazione attenta dell’argomento – e questo genera il Dunning-Kruger effect, ovvero “Quando le persone sono incompetenti nelle strategie che adottano per raggiungere il successo o la soddisfazione personale, subiscono una duplice vessazione: non solo raggiungono conclusioni errate e fanno scelte sbagliate, ma la loro incompetenza le priva della capacità di comprendere l’errore.”
Soprattutto perché questa tipologia di individui tende a interagire unicamente con il proprio gruppo di riferimento, dando vita all’ingroup bias, ovvero la tendenza a offrire un trattamento preferenziale a coloro che si percepiscono come simili o affini. L’attitudine ad attribuire i successi del proprio gruppo alle caratteristiche interne e i fallimenti all’azione di forze esterne, si concretizza infine nell’ultimate attribution error: un errore di attribuzione fondamentale che si verifica quando il comportamento negativo nel proprio gruppo viene spiegato in termini circostanziali, mente il comportamento degli estranei percepito come negativo è considerato prova di colpe, ingiustizie e difetti caratteriali. Su questo bias si fondano la maggior parte dei pregiudizi di coloro che abusano di termini come casta, classe, élite e lobby – nei casi peggiori, pensando addirittura di farne parte.
Si potrebbe scriverne all’infinito, ma per passare a un esempio arcinoto prendiamo l’omission bias, ovvero la tendenza a giudicare più pericolosa o immorale un’azione rispetto a un’omissione della stessa gravità. Non voglio immigrati perché altrimenti rischio che “mi rubino il lavoro” o “mi stuprino le donne”, quindi li lascio su una barca in balìa del mare, ma così facendo rischio che qualcuno ci lasci la pelle ed è risaputo che l’omicidio, per il Codice Penale, è un reato ben più grave del lavoro nero o di un’ipotetica violenza sessuale. Ma, nel caso della nave a largo delle coste della Sicilia, la colpa è condivisa con il mio gruppo – che ricordiamolo, fa la forza – e si sa, mal comune, mezzo gaudio.
Il valore reale di Facebook, anche in termini finanziari, non corrisponde agli investimenti degli inserzionisti o degli sviluppatori di app, bensì al tempo che gli utenti passano online. Il bene commerciale venduto non è l’oggetto del post sponsorizzato, ma la nostra attenzione. Tra i tanti possibili target della pubblicità, Facebook offre agli inserzionisti statunitensi 1,5 milioni di persone “altamente propense a farsi coinvolgere da contenuti politici liberali e a condividerli.” E in Italia? Quanti sono? Facebook sa quasi tutto di noi e, utilizzando l’intelligenza artificiale per analizzare il nostro comportamento, quella conoscenza risulta perfetta per la propaganda politica.
Per questa ragione, per salvare la democrazia dalle strumentalizzazioni, in tutto il mondo occidentale c’è un urgente bisogno di fact checking e di notizie imparziali. È come se avessimo assistito a un improvviso ritorno al linguaggio orale, quando prima dell’alfabetizzazione le grandi storie venivano tramandate a voce con un’elaborazione assolutamente soggettiva del contenuto e della morale.
E in questo nuovo processo di alfabetizzazione mediatica, la maggior parte degli italiani risultano alquanto analfabeti. Un recente studio pubblicato da PNAS (Proceeding of the National Academy of Sciences) ha provato che “Più una comunità è attiva sui social, più tende all’auto-segregazione e alla polarizzazione delle opinioni.” Se la storia ci insegna qualcosa, dovremmo sapere che più le opinioni di un gruppo si fomentano e si estremizzano a vicenda, più quel gruppo diventa pericoloso.
L’aggressività della veloce escalation della violenza, sia verbale che pratica, e della propaganda estremista e nazionalista di destra non è appannaggio solo di quei contenuti apertamente politici, ma soprattutto di quelli apparentemente innocui come i meme. È il caso dell’ inquietante parabola e delle innumerevoli, sgradevoli vicende legate a Pepe The Frog, una rana antropomorfa nata su 4chan, di cui si è appropriata l’alt-right statunitense per spargere odio e propaganda trumpiana sotto forma di meme virali apparentemente innocui. 4chan è un imageboard, un raccoglitore di immagini lanciato nel 2003, le cui bacheche ospitavano inizialmente manga e anime. I contenuti sono anonimi e il sito è stato associato a diverse subculture internet, anche piuttosto minacciose, una su tutti quella di Anonymous, nata proprio su 4chan.
Da qualche anno si sente parlare di blockchain, un protocollo solitamente associato a criptovalute come i Bitcoin ed Ethereum. In realtà, la trasparenza e la natura anti-fraudolenta di questo processo di elaborazione dati sarebbe in grado di fornirci gli strumenti necessari per stabilire un panorama mediatico più imparziale. Il Dnn, ovvero il Decentralized News Network, è un metodo pionieristico che parte da questo concetto. La blockchain è sostanzialmente un registro globale verificabile e crittografato che può presentare nuove alternative agli attuali processi polarizzanti e totalizzanti incentivati dagli algoritmi dei social.
Facebook e Instagram esaminano scrupolosamente le vite online dei propri utenti, e il monitoraggio si estende ben oltre gli annunci pubblicitari. Anche se sono dettagli che le persone spesso vorrebbero ignorare, Facebook traccia tutti, anche gli esterni, sulla maggior parte dei siti e delle app, grazie a una serie di strumenti che includono l’apparentemente innocuo, onnipresente bottone “mi piace”. È una struttura basata sulla persuasione in cui Facebook, al momento, può raccogliere anche i dati biometrici del volto senza il consenso esplicito dell’utente.
La nostra attenzione ai social è diventata un valore da capitalizzare. Il tempo lo passiamo guardando uno schermo alimentando idee simili alle nostre in gruppi ideologicamente chiusi. Forse la questione dei social media ci è leggermente sfuggita di mano.
Abbiamo venduto la nostra concentrazione e il nostro tempo al Dio Internet ottenendo in cambio un senso falsato del mondo che sta uccidendo la democrazia e la nostra quotidianità. Anche se ci ostiniamo a non prenderne atto, la nostra percezione della realtà si è completamente sgretolata tra stringhe di codici e algoritmi, e con essa ogni retaggio di buonsenso, civiltà, cultura, educazione e spirito critico.
Se vogliamo perpetuare il gioco del “leader del popolo”, del governante vicino nell’aspetto, nel linguaggio e nei modi alle persone comuni, non possiamo esimerci dal prendere atto che nel 2018, i socialisti rurali o leoni da tastiera italiani sono sia a Destra che a Sinistra. Il problema non è Salvini, il problema siamo noi.
Maria Acciaro 24 settembre 2018 in The Vision
Articoli che vi raccomandiamo di leggere:
Sorvegliati digitali a quale prezzo
Nell’età della rabbia rivive la dittatura del proletariato
Nella democrazia della rabbia i fatti sono i primi a cadere
Ora fa il moderato, ma Silvio B. è stato il profeta dei populismi
La democrazia digitale e i rischi di manipolazione
“I robot domineranno il mondo”