Del complottismo, del rischio e dell’ipocondria

Un post filosofico, oggi.

Se si volesse dimostrare l’estinzione o meno di una specie, ci troveremmo di fronte a due compiti molto diversi. Per confermare che una specie è ancora tra noi, basterebbe trovare almeno una coppia di individui vivi. Ma per affermare con certezza l’estinzione, dovremmo invece esaminare ogni angolo del pianeta senza rilevare nessun segno di vita.

In altri termini, cioè, è molto più semplice provare la presenza che dimostrare l’assenza.

Non scordiamo della Teiera di Russell.

Questo principio si estende anche alla percezione del rischio, non solo quello lavorativo.

È facile mostrare che esiste un rischio; molto più complicato è provare che un rischio non sia presente. In quest’ultimo caso, infatti, si può affermare che “non è provato” che sia presente. Fino ad evidenze che dimostrino il contrario.

Se queste dinamiche di pensiero si fanno strada in persone o gruppi sociali che invece sostengono la presenza di “qualcosa” a prescidere, ci sarà gioco facile nel “trovare un problema per ogni soluzione”.

Questa difficoltà spesso alimenta atteggiamenti come il complottismo, ad esempio nei confronti dei vaccini, o la paura irrazionale verso i campi elettromagnetici.

In fondo l’ipocondria e il complottismo sono medesime forme di pensiero applicate, la prima al singolo, la seconda al gruppo sociale.

Queste paure nascono dalla nostra incapacità di gestire l’incertezza e si traducono in una sorta di ipocondria collettiva, dove il più o meno probabile, poichè non decodificabile, viene sostituito da una minaccia certa e spaventosa, cognitivamente più gestibile.

Questo atteggiamento riflette una sfida più ampia: la difficoltà di comprendere e accettare la probabilità. Prendiamo l’esempio di una previsione meteo che dà al domani una probabilità del 67% di pioggia (la mia app meteo specifica oggi proprio questa probabilità nella previsione).

Mentre il concetto di “pioggia” è chiaro a tutti, l’idea di una “probabilità del 67%” è molto più nebulosa, specialmente perché implica una comprensione della statistica bayesiana[1], che è meno intuitiva rispetto ad approcci frequentisti.

In generale, tendiamo a pensare in termini di bianco e nero, soprattutto quando si tratta di valutare i rischi. Gli eventi, le loro conseguenze, vengono percepiti in modo più chiaro rispetto alle loro probabilità, che vengono spesso ignorate o mal interpretate.

Che significa, per esempio, una probabilità di 1 su milione? Varie le strategie cognitive. Si può trasformare in “tempo”, quantità a noi nota, o in “distanza”, pure questa da noi quantificabile oppure in altri parametri da noi “manipolabili” con le pinze della mente. Non siamo tutti George Cantor o Karl Weirstrass e dobbiamo ricorrere a simili stratagemmi. Immaginiamo di dover partire dalla mia città, diciamo Pordenone, e dove attraversare l’intera Italia in auto, verso Cosenza. Immaginiamo (ancora) la striscia bianca continua lungo la corsia di emergenza; uno su milione equivale all’interruzione di 1 metro di quella striscia su 1000 km.

Da PN a CS appunto.

Arriviamo da milioni di anni di selezione naturale e probabilmente (appunto!) la comprensione degli “effetti” rispetto alle “probabilità” ci ha donato un vantaggio competitivo enorme.

Ma noi non siamo più Lucy e, forse, sarebbe il caso di cominciare ad alfabetizzare la popolazione alla comprensione di alcune parti fondamentali della statistica.

La conclusione, tuttavia, è ad oggi la seguente: di fronte alla nuova complessità del mondo e alla nostra innata ricerca di certezze, è più facile cadere nella trappola del complottismo o dell’ipocondria piuttosto che impegnarsi in un pensiero critico più lento e ponderato.

Lento o veloce.

Un Pensiero lento o un pensiero veloce?

Questo aspetto della natura umana non è banale, soprattutto in un momento in cui dobbiamo dire addio a Daniel Kahneman, uno scienziato sociale che ha dedicato l’intera sua esistenza allo studio del comportamento umano.

– – –

[1] Immaginiamo di avere i seguenti parametri: a) la probabilità statistica a priori [P(A)] che il 30 marzo piova è dello 20%, b) si constata che le previsioni di pioggia risultano verificate, a posteriori, nell’80% dei casi, [P(A|B)]  e, infine, c) la probabilità di assenza di pioggia a posteriori quando è invece prevista, è del 10% [P(A|~B)]. Sotto queste ipotesi la probabilità condizionata che domani ci sia pioggia essendo prevista pioggia sarà del 67% [P(B|A)]

Commento (1)

  • Rispondi roberto - 9 Aprile 2024

    Stimolante, as always

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati*

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.