Il grande inganno

In che modo la nostra mente ci rende più vulnerabili alla disinformazione? First Draft ha spiegato alcuni dei concetti cognitivi più importanti per capire perché siamo così facilmente ingannabili.

da un articolo di Valigia Blu
14 luglio 2020

Conoscere la psicologia della disinformazione (le scorciatoie mentali, le confusioni e le illusioni che ci incoraggiano a credere cose che non sono vere) può insegnarci molto su come prevenirne i suoi effetti dannosi, aiutandoci a capire se le correzioni alle notizie false sono efficaci, cosa si dovrebbe insegnare nei corsi di alfabetizzazione mediatica e perché, in quanto esseri umani, siamo vulnerabili alla disinformazione.
L’interpretazione errata di questi concetti nelle mani di persone non esperte (o peggio ancora, divulgatori incompetenti) può contribuire a creare nuove forme di disinformazione.

Se giornalisti, fact-checker, ricercatori, conduttori e influencer che parlano di disinformazione non conoscono o non capiscono questi processi psicologici, rischiano di diventare essi stessi parte del problema.
Ecco perché è importante conoscere queste dinamiche in modo più approfondito.


Avarizia cognitiva

La cognitive miserliness è la caratteristica psicologica che ci rende più vulnerabili alla disinformazione. Preferiamo utilizzare metodi più semplici e immediati per risolvere un problema piuttosto che metodi che richiedono più ragionamento e impegno.
Ci siamo evoluti per usare il minor sforzo mentale possibile. Questo fa parte di ciò che rende il nostro cervello così efficiente, ma significa anche che non pensiamo abbastanza quando ne abbiamo bisogno, per esempio quando leggiamo distrattamente un’informazione falsa e la prendiamo per vera, senza farci troppe domande.


Teoria del doppio processo

Secondo la dual process theory, abbiamo due modi di pensare di base: Sistema 1, un processo automatico che richiede poco sforzo; e Sistema 2, un processo analitico che richiede maggiori sforzi.

Poiché siamo avari cognitivi, generalmente useremo il pensiero del Sistema 1 (quello facile), ma l’elaborazione automatica comporta il rischio di disinformazione per due motivi.
In primo luogo, più è facile elaborare qualcosa, più è probabile che pensiamo che sia vera. Per cui, i giudizi facili e veloci spesso sembrano giusti anche quando non lo sono.
In secondo luogo, con l’elaborazione automatica possono sfuggirci dei dettagli, a volte cruciali. Ad esempio, potremmo ricordare qualcosa che abbiamo letto o sentito, ma dimenticare che è stato già smentito.


Euristica

L’heuristics consiste in tutti quegli indicatori che usiamo per esprimere giudizi rapidi (le scorciatoie mentali che usiamo per dare un senso al mondo). Ci permette di semplificare analisi complesse e giungere a una soluzione in tempi rapidi.
Il problema è che spesso porta a conclusioni errate. Per esempio, possiamo affidarci a un “euristico avallo sociale” (qualcuno di cui ti fidi ha approvato, o ritwittato, un post) per giudicarne la veridicità. Ma per quanto importante possa essere la relazione che ci lega a quella persona, la fiducia da sola non è un indicatore sufficiente e potrebbe portarci a credere qualcosa che non è vero.

Come scrive Claire Wardle nella guida essenziale sul caos informativo, “sui social media l’euristica non funziona”. Infatti, la condivisione di alcuni contenuti comporta la loro decontestualizzazione e priva il lettore di quegli indizi visivi che potrebbero aiutarlo a trarre conclusioni veloci corrette. Potrebbe essere qualsiasi cosa e il processo euristico, davanti a un contenuto condiviso sui social da una persona che conosciamo, potrebbe portarci a conclusioni sbagliate.


Dissonanza cognitiva

La cognitive dissonance (descritta per la prima volta nel 1957) è l’esperienza dovuta alla conoscenza di un’informazione che contraddice le nostre convinzioni: dato che è psicologicamente dolorosa, siamo indotti a rifiutare le informazioni credibili per alleviare la dissonanza.
Questo processo inconscio può addirittura portare a un rafforzamento delle proprie convinzioni, anche dopo aver scoperto che sono sbagliate.


Confirmation bias o pregiudizio di conferma

Il confirmation bias è la tendenza a credere alle informazioni che confermano le nostre convinzioni pre-esistenti e a rifiutare le informazioni che le contraddicono. Gli attori della disinformazione possono sfruttare questa tendenza per amplificare convinzioni false già esistenti.
Il confirmation bias appartiene a una lunga lista di pregiudizi cognitivi.


Ragionamento interessato

Il motivated reasoning si presenta quando le persone usano le loro capacità di ragionamento per convincersi di ciò che vogliono credere, piuttosto che per determinare la verità. Il punto cruciale, qui e nell’attuale dibattito sulla psicologia della disinformazione, è l’idea che le facoltà razionali di alcune persone (e non il pensiero pigro o irrazionale) possano contribuire al consolidamento di convinzioni disinformate.

In un pezzo del 2019 pubblicato sul New York Times, David Rand e Gordon Pennycook, due scienziati cognitivi rispettivamente dell’Università della Virginia e del MIT, hanno criticato questo concetto psicologico. La loro tesi è che le persone semplicemente non sono abbastanza analitiche quando elaborano le informazioni:

C’è chi sostiene che la nostra capacità di ragionare sia dirottata dalle nostre convinzioni: cioè siamo inclini alla razionalizzazione. Altri studiosi – tra cui noi due – affermano che il problema è che spesso non riusciamo a esercitare le nostre facoltà critiche: cioè siamo mentalmente pigri.


Ignoranza pluralistica

La pluralistic ignorance è la mancanza di comprensione di ciò che gli altri nella società pensano e credono. A volte siamo indotti erroneamente a pensare che un gruppo a cui non apparteniamo sia in maggioranza (per esempio in politica), quando in realtà si tratta di una posizione sostenuta da pochissime persone.
Questo processo cognitivo può essere aggravato dalla confutazione della disinformazione: il processo di smentita può rendere determinate visioni più popolari di quanto non siano in realtà. Pensiamo ad alcune delle teorie del complotto diventate celebri negli ultimi anni, anche grazie agli articoli, video, documentari che le smentiscono. Detto in altre parole, la fama che ha acquisito il “terrapiattismo” come teoria del complotto potrebbe indurci a credere che i terrapiattisti siano molti di più di quelli che realmente sono.
Una variante di questo concetto è l’effetto del falso consenso: quando sopravvalutiamo il numero di persone che condividono le loro opinioni.


Effetto della terza persona

Il third-person effect descrive il modo in cui tendiamo ad assumere che la disinformazione influenzi gli altri più di noi stessi: nell’identificare la disinformazione, le persone valutano se stesse meglio rispetto agli altri.
È un effetto che incide sulla capacità percepita di individuare la disinformazione: ciò significa che possiamo fare l’errore di sottovalutare la nostra vulnerabilità alla disinformazione e abbassare le nostre difese.


Fluidità percettiva

La fluency si riferisce alla facilità con cui le persone elaborano le informazioni. Siamo portati a credere con maggior convinzione che qualcosa sia vero se riusciamo a elaborarlo in maniera fluida.
La ripetizione di una notizia falsa ha effetti potenti sulla nostra percezione: se l’hai già sentita prima, è diventata familiare, la elabori più facilmente e risulta più credibile.
Significa anche che le informazioni di facile comprensione sono più credibili, perché vengono elaborate in maniera più fluida.


Ricettività alle cazzate

I ricercatori Gordon Pennycook e David Rand usano il concetto di “ricettività alle cazzate” per esaminare la capacità di alcune persone di credere ai titoli delle notizie false. Non si tratta di bugie (che contraddicono intenzionalmente la verità), ma sono un ottimo combustibile per la disinformazione.
Pennycook e Rand hanno scoperto che più una persona è portata ad accettare una frase pseudo-profonda (cioè una cazzata) come “Il significato nascosto trasforma una bellezza astratta senza pari”, più è sensibile ai titoli di notizie false.
Secondo i due scienziati, la suscettibilità alle notizie false deriva più da un pensiero analitico insufficiente, piuttosto che da un ragionamento interessato. In altre parole, utilizziamo troppo il pensiero automatico del Sistema 1 e non abbastanza il pensiero analitico del Sistema 2.

Immagine: Pixabay.

Articolo originale (con indicazioni di lettura accademica per chi volesse approfondire)

I commenti sono chiusi.

Create a website or blog at WordPress.com

Su ↑

%d blogger hanno fatto clic su Mi Piace per questo: