martedì 3 luglio 2012

Bumping: Mistyger "quando i fatti ti si ritorcono contro".


Ripubblico la traduzia ad opera dell' Esimio Pier Giorgio De Feudis del bellissimo articolo pubblicato da Boston.com.

"Lo codesto articolo a cui si fa riferimento è stato ivi pubblicato dallo sito boston.com 
E' uno dei grandi presupposti alla base della democrazia moderna che un cittadino informato è preferibile a uno disinformato. "Ogni qualvolta le persone sono bene informate, si possono fidare dei proprio governi", scriveva Thomas Jefferson nel 1789. Questo concetto, portato avanti nel corso degli anni, è stato alla base di tutto, dagli umili pamphlet politici ai dibattiti presidenziali, sino alla più vera definizione di "stampa libera". 
L'umanità, come Kant fece notare, può essere un legno ricurvo, piegato dall'ignoranza e dalla disinformazione, ma è un dato di fede che la conoscenza è il migliore rimedio. Se le persone sono a conoscenza dei fatti, diventeranno pensatori più acuti e cittadini migliori. Se sono ignoranti, i fatti le illumineranno. Se sono nel torto, i fatti le ricondurranno nel giusto.
Alla fine, la verità verrà fuori. No?

Forse no. Recentemente, alcuni scienziati politici hanno cominciato a scoprire una tendenza umana profondamente scoraggiante per chiunque abbia fede nel potere delle informazioni. Si tratta di questo: i fatti non necessariamente hanno il potere di cambiare le nostre menti. In realtà è l'esatto contrario. In una serie di studi del 2005 e 2006, i ricercatori della University of Michigan hanno scoperto che quando le persone disinformate, in modo particolare i partigiani di una corrente politica, sono state esposte a notizie contenenti fatti corretti, raramente hanno cambiato idea. In realtà sono spesso diventate ancora più fortemente attaccate alle loro credenze. I fatti, hanno scoperto, non curano la  disinformazione. Come un antibiotico poco potente, i fatti possono effettivamente rendere ancora più forte la disinformazione.
Questo è di cattivo augurio per una democrazia, perché la maggior parte degli elettori - le persone che prendono decisioni sull'andamento del Paese - non sono lavagne vuote. Hanno già convinzioni, e una serie di fatti radicati nelle loro menti. Il problema è che a volte le cose che pensano di sapere sono oggettivamente, dimostrabilmente false. E in presenza di informazioni corrette, tali persone reagiscono in modo molto, molto diverso rispetto al semplice disinformato. Invece di cambiare le loro menti in modo da accogliere le informazioni corrette, si possono radicare ancora di più nelle proprie convinzioni.
"L'idea generale è che è assolutamente spaventoso ammettere di essere nel torto", dice il politologo Brendan Nyhan, il ricercatore principale dello studio. Il fenomeno - conosciuto come "ritorno di fiamma" - è "un meccanismo di difesa naturale per evitare la dissonanza cognitiva".
Questi risultati aprono un lungo dibattito sull'ignoranza politica dei cittadini americani in questioni più ampie circa l'interazione tra la natura dell'intelligenza umana e i nostri ideali democratici. Alla maggior parte di noi piace credere che le nostre opinioni siano state formate nel tempo da attente considerazioni razionali dei fatti e delle idee, e che le decisioni basate su tali pareri, quindi, si basano sulla solidità e l'intelligenza. In realtà, spesso basiamo le nostre opinioni sulle nostre convinzioni, cosa che può avere una non facile relazione con i fatti. E piuttosto che siano i fatti a guidare le convinzioni, le nostre convinzioni possono dettare i fatti che abbiamo scelto di accettare. Possono farci modificare i fatti in modo che si adattino meglio alle nostre idee preconcette. Peggio di tutto, possono portarci ad accettare acriticamente la cattiva informazione solo perché rafforza le nostre convinzioni. Questo rinforzo ci rende più sicuri del fatto che abbiamo ragione, e ancor meno propensi ad ascoltare tutte le nuove informazioni. E poi si vota.
Questo effetto è amplificato dalla sovrabbondanza di informazioni, che offrono - insieme a una quantità di una buona informazione senza precedenti- infinite voci di corridoio, disinformazione e variazioni discutibili della verità [e aggiungo anche WIKIPEDIA -nd De Feudis]. In altre parole non è mai stato così facile per le persone essere nel torto, e al tempo stesso sentirsi tanto sicure di avere ragione.
Le ultime cinque decadi hanno definitivamente stabilito come la maggior parte degli americani siano carenti anche nella comprensione basilare di come il loro Paese funzioni. Nel 1996 Larry M. Bartels dell'Università di Princeton ha sostenuto "l'ignoranza politica dell'elettore americano è uno dei dati meglio documentati delle scienze politiche".
Di per sé, questo potrebbe non essere un problema: la gente ignorante dei fatti potrebbe semplicementescegliere di non votare. Ma invece, sembra che le persone poco informate politicamente hanno spesso le più forti opinioni politiche. Un esempio lampante è stato un recente studio fatto nel 2000, guidato da James Kuklinski dell'Università dell'Illinois a Urbana-Champaign. Ha condotto un esperimento autorevole in cuisono stati invitati più di 1.000 residenti dell'Illinois a rispondere a domande sul welfare - la percentuale delbudget federale speso per il benessere, il numero di persone iscritte al programma, la percentuale diiscritti di colore e il versamento medio. Più della metà ha indicato che erano sicuri che le loro risposteerano corrette - ma in realtà solo il 3% delle persone ha ottenuto più della metà delle domande giuste.Forse più inquietante, quelli più fiduciosi di avere ragione erano generalmente quelli che conoscevanomeno sull'argomento (La maggior parte di questi partecipanti hanno espresso opinioni che suggerivano un forte sentimento antiwelfare).
Studi condotti da altri ricercatori hanno osservato fenomeni simili quando si affronta l'istruzione, la riforma sanitaria, l'immigrazione, le azioni positive, il controllo delle armi, e di altre questioni che tendono ad attrarre forti pressioni dell'opinione schierata. Kuklinski chiama questo tipo di risposta sindrome del "Io so che ho ragione" e la considera un "problema potenzialmente terribile" in un sistema democratico. "Ciò implica non solo che la maggior parte delle persone sono resistenti nel correggere le loro credenze fattuali", ha scritto, "ma anche che le persone che più hanno bisogno di correggerle saranno meno propense a farlo."
Cosa sta succedendo? Come possiamo essere tanto nel torto ed essere così sicuri che abbiamo ragione? Parte della risposta sta nel modo in cui è strutturato il nostro cervello. Generalmente le persone tendono a cercare la coerenza. C'è un corpus consistente di ricerca psicologica che dimostra che le persone tendono a interpretare le informazioni con un occhio verso il rafforzameto delle loro opinioni preesistenti. Se crediamo qualcosa sul mondo, siamo più propensi ad accettare passivamente come verità tutte le informazioni che confermano le nostre credenze, e automaticamente a respingere le informazioni che le confutano. Questo è noto come "ragionamento motivato". Siano o meno accurate, noi possiamo accettare le informazioni come un fatto, a conferma delle nostre credenze. Ciò ci rende più fiduciosi in queste credenze, e meno propensi a considerare i fatti che le contraddicono.
Una nuova ricerca, pubblicata sulla rivista Political Behavior il mese scorso, suggerisce che una volta che questi fatti - o "fatti" - sono interiorizzati, questi sono molto difficili da rimuovere. Nel 2005, tra le grida stridenti per un migliore supporto dei media nel controllo dei fatti in seguito alla guerra in Iraq, Nyhan Michigan e un suo collega misero a punto un esperimento in cui venivano date ai partecipanti notizie inventate, ognuna delle quali conteneva un falso comprovabile, che venivano presentate come dichiarazioni di figure politiche: che c'erano armi di distruzione di massa in Iraq (non c'erano), che i tagli fiscali di Bush avevano incrementato i ricavi del governo (i ricavi in realtà erano scesi), e che l'amministrazione Bush aveva imposto un divieto totale alla ricerca sulle cellule staminali (solo certi finanziamenti federali erano stati limitati). Nyhan aveva inserito una chiara correzione dopo ogni esempio di disinformazione, e in seguito controllato i partecipanti allo studio per vedere se le correzioni erano state recepite.
Nella maggior parte dei casi... non lo erano state. I partecipanti che si auto-identificavano come "conservatori" credevano ancora più fermamente alla presenza di armi di distruzione di massa e all'utilità dei tagli fiscali dopo che erano stati messi a conoscenza della realtà dei fatti. Rispetto a queste due questioni, più l'argomento stava a cuore al partecipante - un fattore noto come "salienza" - e più forte era il "ritorno di fiamma". L'effetto era leggermente diverso in quelli che si erano identificati come "liberali": quando leggevano la versione corretta sulle cellule staminali, le correzioni non generarono un "ritorno di fiamma", ma i lettori ignoravano ancora il fatto [per loro] scomodo che l'amministrazione Bush non aveva imposto restrizioni totali.
Non è chiaro ciò che guida il comportamento - potrebbe variare dal semplice atteggiamento difensivo, alle persone che lavorano di più per difendere le loro convinzioni iniziali - ma come Nyhan ha seccamente ammesso, "E' difficile essere ottimisti circa l'efficacia del controllo dei fatti".
Sarebbe rassicurante pensare che i politologi e gli psicologi hanno escogitato un modo per contrastare questo problema, ma sarebbe un passo più lungo della gamba. La persistenza di fraintendimenti politici resta un campo giovane di indagine. "E 'molto in aria", dice Nyhan.
Ma i ricercatori ci stanno lavorando sopra. Un'ipotesi potrebbe coinvolgere l'autostima. Nyhan ha lavorato su uno studio in cui dimostrava che le persone che avevano dato prova di autostima erano più inclini a considerare le nuove informazioni rispetto alle persone insicure. In altre parole, se ti senti bene con te stesso, tu ascolterai, ma se ti senti insicuro o minacciato, non lo farai. Questo spiegherebbe anche perché i demagoghi beneficiano nel tenere la popolazione agitata. Più le persone si sentono minacciate, meno è probabile che ascoltino pareri discordanti, e diventano più facilmente controllabili.
Ci sono anche alcuni casi in cui la chiave è l'immediatezza. Uno studio sul benessere condotto da Kuklinski ha suggerito che le persone aggiornano le proprie convinzioni se "colpite in mezzo agli occhi" da fatti oggettivi, presentati senza mezzi termini, che contraddicono le loro idee preconcette. Ha chiesto a un gruppo di partecipanti quale percentuale del proprio bilancio credevano che il governo federale investisse sul benessere e la percentuale che credevano dovesse invece essere spesa. A un altro gruppo furono date le stesse domande, ma al secondo gruppo fu subito detto che la percentuale corretta che il governo investiva per il benessere era l'1%. E' stato poi chiesto, con questo in mente, quello che il governo avrebbe dovuto spendere. Indipendentemente da quanto era stato disinformato prima di ricevere le informazioni, il secondo gruppo regolò di fatto le sue risposte per riflettere il valore corretto.
Lo studio di Kuklinski, tuttavia, coinvolge persone che hanno ricevuto le informazioni direttamente dai ricercatori in un modo altamente interattivo. Quando Nyhan ha tentato di sottoporre le informazioni corrette  in un modo più "reale", tramite un articolo su un quotidiano, l'esperimento è fallito. Anche se la gente accetta le nuove informazioni, queste potrebbero non resistere a lungo termine, oppure possono semplicemente non avere alcun effetto sulle loro opinioni. Nel 2007 John Sides della George Washington University e Jack Citrin dell'Università della California a Berkeley studiarono se fornire alle persone disinformate i dati corretti sulla percentuale di immigrati nella popolazione degli Stati Uniti, potesse modificare le loro opinioni in materia di immigrazione. Non lo fece.
E se nutrite l'idea - popolare su entrambi i lati della navata - che la soluzione è più istruzione e un più elevato livello di raffinatezza politica degli elettori in generale, beh, questo è un inizio, ma non la soluzione. Uno studio del 2006 di Charles Taber e Milton Lodge della Stony Brook University ha dimostrato che i pensatori politicamente più raffinati erano ancora meno aperti alle nuove informazioni rispetto a quelli meno sofisticati. Queste persone possono di fatto avere ragione in circa il 90% delle cose, ma la loro fiducia rende quasi impossibile correggere quel 10% su cui sono totalmente in errore. Taber e Lodge hanno trovato questa cosa allarmante, in quanto i pensatori più evoluti e impegnati sono "le stesse persone su cui si basa più pesantemente la teoria democratica".
In un mondo ideale, i cittadini sarebbero in grado di mantenere una vigilanza costante, controllando sia le informazioni che ricevono che il modo in cui il loro cervello le elabora. Ma controllare ogni notizia richiede tempo e fatica. E l'implacabile auto-interrogazione, come secoli di filosofi hanno dimostrato, può essere faticosa. I nostri cervelli sono progettati per creare scorciatoie cognitive - inferenze, intuizioni, e così via - al fine di evitare proprio quella sorta di disagio mentre si affronta l'afflusso di informazioni che riceviamo ogni giorno. Senza queste scorciatoie poche cose potrebbero essere fatte. Ma purtroppo, con loro, siamo anche facilmente più truffabili dalle falsità politiche.
Nyhan raccomanda in definitiva un approccio laterale supplementare. Invece di concentrarsi sui cittadini e consumatori disinformati, egli suggerisce di risalire alle fonti. Se aumentano i "costi reputazionali" di spacciare informazioni errate, suggerisce che si potrebbe scoraggiare la gente dal farlo così spesso. "Quindi, se vai sul 'Meet the Press' e vieni preso a martellate per aver detto qualcosa di fuorviante," dice, "ci penserai due volte prima di farlo di nuovo."
Purtroppo questa soluzione basata sull'auto-vergogna potrebbe essere implausibile per quanto assennata. I commentaori politici esperti nel parlare a vanvera sono ascesi al regno,  molto redditizio, dell'intrattenimento popolare, mentre i professionisti delle operazioni di controllo dei fatti languono nelle segrete del "mondo dei secchioni". Indurre un politico o un espertologo a sostenere impassibili che George W. Bush ha ordinato il crollo delle Torri Gemelle, o che Barack Obama è il risultato di un periodo di cinque, dieci anni di complotto da parte del governo del Kenya per distruggere gli Stati Uniti è cosa facile. Indurli a provare vergogna per sé stessi? Questo non lo è...

Joe Keohane,  New York

2 commenti:

Mauro ha detto...

come Kent fece notare

Forse era Kant...

Saluti,

Mauro.

Skure ha detto...

refuso sistemato, grazie!