Del terremoto di Lisbona e dell’origine della moderna concezione di “rischio”

Il catastrofico terremoto di Lisbona del 1755 rappresentò, a detta degli storici, un evento che cambiò non solo il Portogallo ma, culturalmente, l’intera Europa.

Le scosse del sisma si propagarono ben al di la delle faglie geologiche e raggiunsero la cultura della popolazione modificando convincimenti fino ad allora ritenuti inscalfibili.

Secondo significative interpretazioni[1] DIVISE LA STORIA in un prima ed un dopo.

Suddivise, cioè, un periodo millenario antecedente nel quale il rischio veniva considerato una punizione divina (con conseguente sospensione delle leggi di natura) da un’epoca successiva in cui il rischio associato a tali catastrofi (terremoti, eruzioni vulcaniche, maremoti) divenne una manifestazione delle forze della natura con precise e puntuali responsabilità umane.

Ma cosa accadde, di preciso a Lisbona? Ebbe luogo forse l’evento sismico più rilevante avvenuto nel continente europeo negli ultimi 2000 anni. Un terremoto di magnitudo 8,4 della scala Richter colpì infatti la città nel giorno di Ognissanti.

Tre scosse ripetute, della durata stimata di circa 10 minuti la rasero al suolo tutta. Al terremoto seguì, dopo un’ora e mezza, un’onda di tsunami alta fino a 20 metri che sommerse la città. Lo tsunami non colpì solo Lisbona ma tutta la costa del Portogallo e dell’Africa nord-occidentale.

Insomma un disastro epocale.

Causò tra i 60 e i 100 mila morti e  vennero distrutti l’85% degli edifici della città.

Questo fatto determinò il primo vero confronto tra Chiesa e laicità che ebbe luogo in occidente in conseguenza di un fatto reale e concreto (in fondo il sole, i pianeti, erano cose distanti dal senso comune).

La Chiesa, fin dal giorno dopo, iniziò a predicare che un tale evento, accaduto nel giorno di Ognissanti, era un chiaro segno divino: Lisbona era una città peccatrice e doveva essere punita. E quale miglior punizione che uccidere 100 mila persone le quali, all’interno delle chiese, seguivano Messa (in sisma avvenne tra le 9:30 e le 9:50 del mattino)?

Al fianco della Chiesa si schierò Leibnitz il quale, attraverso l’ argomentare sul “migliore dei mondi possibili”, arrivò alla seguente, straordinaria, conclusione: “Ciò che è, è giusto”.

E poteva mancare un predicatore? Certo che no. Era un gesuita, Gabriel Malagrida che, dal giorno dopo, iniziò la sua “denuncia” sulla responsabilità del peccato degli uomini in quanto accaduto.

Il fronte laico era invece capeggiato dal Marchese di Pombal, Ministro del Regno, che si occupò della ricostruzione della città.

Nacque peraltro in questo periodo il primo embrione di geologia: un filosofo naturale dell’epoca, Alvarez Da Silva, pur con tutte le cautele del caso (il processo a Galileo Galilei aveva fatto scuola), arrivò a dire che si, il terremoto poteva essere una punizione divina MA ANCHE poteva essere spiegato con cause naturali. Per esempio fantomatici fuochi sotterranei che arrivando vicini alla crosta, provocavano i terremoti. Non era molto, ma eravamo pur sempre nel 1755. E c’era l’inquisizione.

Poi arrivarono i pezzi da novanta della filosofia politica dell’epoca (Voltaire e J.J. Rousseau) che contestarono la “visione del mondo” della Chiesa e di Leibnitz. Voltaire non perse occasione di ridicolizzare “il migliore dei mondi possibili” postulato da quest’ultimo.

Come andò a finire? E che fine fece Malagrida, il predicatore del peccato come causa delle catastrofi?

Fu accusato di tentato omicidio ai danni di Pombal (pare in base a prove false). Venne gettato in prigione, consegnato all’Inquisizione e, dopo un “processo”, trascinato in piazza, torturato per un giorno, strangolato e poi arso di fronte alla folla.

Insomma, nel 1755 a Lisbona nacque la scienza geologica e si ebbe il baluginare di una nuova concettualizzazione del rischio.

[1] Lannoy A. (2008). Maîtrise des risques et sûreté de fonctionnement: repères historiques et méthodologiques (Collection Sciences du risque et du danger). Lavoisier.

Share

Del rischio, della 31000/45001 e dell’incertezza

Discuto oggi di un argomento particolare per chi svolge la nostra professione: “Il rischio”. Fino a qualche tempo fa il termine “rischio” e “valutazione del rischio” era cosa apparentemente consolidata, conosciuta, praticata.

Tutta la moderna tecnologia, da quella militare più di frontiera all’individuazione dei requisiti di sicurezza per una pressopiegratrice, presupponeva una preliminare “valutazione del rischio”.

Una “valutazione del rischio” positivista, capace di pesare o di stimare con precisione i parametri in gioco, è da sempre stato il paradigma dal quale partire.

conosco la probabilità di accadimento

conosco il danno potenziale

ERGO

conosco il rischio

Tutto bene, quindi.

Abbiamo la coperta che ci protegge dalle intemperie.

Tutte le intemperie.

Uno strumento invulnerabile e cognitivamente abbastanza comprensibile.

Poi arrivò Nassim Nicholas Taleb

E poi, ancora, Gerd Gigerenzer

E poi Charles Perrow

E poi molti altri, a seconda della traiettoria di studio di ciascuno di noi.

E l’enorme coperta invulnerabile che pensavo di possedere divenne una copertina di Linus.

Arrivò infatti il colpo di grazia, dato alle mie personali certezze, dalla ISO 31000 (il rischio è “l’effetto dell’incertezza sugli obiettivi”) e dalla ISO 45001 (il rischio è “l’effetto dell’incertezza”).

Che diamine vuol dire “effetto dell’incertezza sugli obiettivi” e come si incastra questa nuova prospettiva con tutto il background precedente?

In effetti Gigerenzer già nel 2002 aveva avvertito[1]: “[…] chiamo rischio un’incertezza quando è possibile esprimerla numericamente, come probabilità o frequenza, sulla base di certi dati empirici; il numero in questione non è necessariamente fisso, ma può essere aggiornato alla luce dell’esperienza. Quando, mancando dati empirici, è invece impossibile o sconsigliabile assegnare dei valori numerici alle alternative possibili, uso invece di “rischio” il termine incertezza […]”. Questo passaggio, dal significato un po’ oscuro con gli strumenti che avevo all’epoca, mi tornò utile in seguito.

Molto utile.

L’incertezza non è quindi il rischio, lo diviene quando si ha la capacità di dare un valore numerico ai parametri in gioco. E non sempre accade, in effetti.

Pensandoci bene, quasi mai.

L’idea di conoscere la probabilità di accadimento su base frequentista è un’illusione, probabilmente. Un effetto ottico, di parallasse, al quale danno credito gli analisti di rischio industriale e chi costruisce analisi affidabilistiche basate su alberi di guasto.

Pochi altri, per fortuna.

Nel mio girovagare “per dare un senso a ciò che senso non ha”, per citare il Kom, mi imbattei successivamente in un articolo illuminante di Andy Stirling[2] (molto citato) nel quale, finalmente, si forniva un quadro di insieme che collegava la conoscenza delle probabilità di accadimento, delle conseguenze, l’incertezza, il rischio.

E molto altro.

La sintesi la riporto nella figura seguente.

La comfort zone nella quale mi sono cullato per quasi due decenni era sono una parte del quadro complessivo di insieme ed era solo quella del rischio propriamente detto.

Poi c’è l’area dell’incertezza, nella quale non sia possiedono le conoscenze in tema di probabilità di accadimento di un dato evento.

E l’area dell’ambiguità, nella quale non si riesce a definire la/le conseguenza/e di uno specifico fattore.

E infine l’area dell’ignoranza, dove probabilità e danni sono ignoti.

Molto altro ci sarebbe da dire, magari ci ritornerò.

Riprendendo i concetti esposti da N.N. Taleb nel suo “Cigno Nero”, ho vissuto in Mediocristan per molto tempo ma è da un po’ che mi sto avventurando nell’Estremistan.

Vedremo che accadrà.

[1] Gigerenzer G. (2002). Quando i numeri ingannano. Imparare a vivere con l’incertezza. Raffaello Cortina, 34

[2] Stirling, A. (2003). Risk, uncertainty and precaution: some instrumental implications from the social sciences. Negotiating environmental change, 33-76

Share

La sicurezza sul lavoro è un costo per l’azienda?

Spesso chi si occupa di sicurezza sul lavoro e di processo si scontra con quelli che vengono percepiti dalla proprietà solo ed esclusivamente come costi.

Perché fare sicurezza sul lavoro “fatta bene” è un vantaggio per l’organizzazione? Potrei elencare una serie di motivi che, nel corso del tempo, mi hanno convinto dell’importanza dell’investimento in sicurezza.

Non lo faccio.

Vorrei invece raccontare una storia di leadership innovativa e, per certi versi, anomala che dimostra con i fatti ciò che intendo.

È la storia di Paul H. O’Neill che guidò ALCOA tra il 1987 e il 1999.

L’insediamento del manager, di idee repubblicane e che nel 1989 Bush padre candidò a Segretario alla difesa, ruolo che fu poi di Dick Cheney, fu quantomeno anomalo.

O’Neill, che proveniva da un ruolo decennale di vertice in una delle più grandi industrie del settore cartario statunitense, iniziò la prima affollatissima conferenza stampa in qualità CEO di ALCOA con le seguenti parole:

“Voglio parlarvi della sicurezza dei lavoratori. Ogni anno numerosi lavoratori di ALCOA subiscono infortuni con prognosi superiore ad una giornata di lavoro. Il nostro standard di sicurezza è comunque migliore rispetto alla forza lavoro generale americana, soprattutto se si considera che i nostri dipendenti lavorano con metalli ad oltre 1500°C e con macchine e impianti che possono letteralmente strappare le braccia ad un uomo. Ma questo non è abbastanza. Intendo fare di ALCOA l’azienda più sicura d’America. Voglio che si arrivi a zero infortuni”.

Poi proseguì:

“Ora, prima di andare oltre, vorrei segnalare le uscite di sicurezza presenti in sala. Ci sono un paio di porte sul retro, e nell’improbabile eventualità di un incendio o di un’altra emergenza, dovreste uscire con calma, scendere le scale fino all’atrio e lasciare l’edificio”.

Ovviamente la platea, composta per lo più dalla miglior/peggior intellighenzia di Wall Street, stette per un po’ in silenzio, attonita e basita rispetto all’argomentare del nuovo amministratore della più grande società del mondo dell’alluminio.

“Sicurezza sul lavoro?”

“Uscite di emergenza??”

“Infortuni zero???”

Cominciarono le domande, via via più concitate, le più frequenti tra le quali furono relative ai bilanci, agli obiettivi finanziari, ai target da raggiungere.

O’Neill stette in silenzio, ascoltò per un po’ le domande/obiezioni e poi, senza alterarsi, rispose:

“Non sono sicuro che mi abbiate compreso. Se volete capire come sta andando ALCOA è necessario diate uno sguardo ai nostri dati in tema di sicurezza sul lavoro. Se riusciremo ad abbassare il tasso infortunistico non sarà a causa delle sciocchezze che, a volte, si sentono dire nel corso di conferenza stampa come questa da altri CEO. Sarà perché le persone di questa azienda avranno accettato di diventare parte di qualcosa di importante: si saranno dedicate a creare un’abitudine all’eccellenza. La sicurezza sarà un indicatore del fatto che staremo facendo progressi nel cambiare le nostre abitudini in tutta la società. Ed è rispetto a questo che dovremmo essere giudicati”.

Nel 1987 ALCOA non navigava peraltro in buone acque. I processi di lavoro erano largamente inefficienti e la qualità dei prodotti in fase progressivamente calante. Quello che fece la nuova gestione, a differenza delle precedenti, fu innanzi tutto comprendere che l’intero “sistema sociale” di ALCOA non si poteva dirigere imponendo dall’alto obiettivi di qualità in opposizione al percepito dei lavoratori bensì creando una “condivisione di senso” su ciò che veniva fatto negli stabilimenti.

Avere come primo obiettivo la sicurezza sul lavoro significava, inoltre, poter discutere con le controparti sociali non secondo le precedenti logiche oppositive bensì collaborative.

E, soprattutto, comprendere alla radice i motivi infortunistici dell’azienda conduceva, inevitabilmente, ad una maggior efficienza nella produzione. Gli infortuni sul lavoro trovano terreno fertile nel malfunzionamento complessivo del sistema di produzione e nella sua disorganizzazione.

Le analisi di rischio condotte permisero di razionalizzare i processi di produzione e di modificare le abitudini al rischio presenti nei vari stabilimenti.

Per raggiungere gli obiettivi che si era proposto O’Neill introdusse una nuova e radicale procedura: in caso di infortunio il direttore di stabilimento avrebbe dovuto relazionare in forma scritta al CEO entro 24 ore dall’accadimento. La relazione doveva includere l’analisi dell’incidente e le misure di prevenzione e protezione atte a scongiurare altri eventi in futuro. Con una ciliegina sulla torta: solo i dirigenti che si adeguavano a questa procedura potevano ambire a successive promozioni.

Ovviamente questa nuova modalità era difficilissima da introdurre e mantenere. Il poter relazionare ad O’Neill in sole 24 ore presupponeva che i responsabili di stabilimento fossero costantemente in contatto con le loro funzioni gerarchicamente dipendenti. Non solo. I vari responsabili di area dovevano, a loro volta, essere connessi ai capireparto i quali dovevano presidiare costantemente le aree di produzione richiedendo un’atteggiamento proattivo ai lavoratori. Ogni anomalia doveva essere velocemente segnalata e forme standard di prevenzione e protezione dovevano essere codificate e implementate in tempo reale così da essere prontamente comunicate.

Questo determinò un rapidissimo smagrimento della burocrazia interna di ALCOA, con l’introduzione di agili forme di comunicazione che presto si radicarono in tutta l’organizzazione e in tutti i settori fondamentali della multinazionale.

Il cambiamento, pervicacemente perseguito in un solo settore, si propagò a macchia d’olio negli anfratti operativi dell’azienda, velocizzando a cascata tutti i processi strategici.

Ad un anno dal discorso di insediamento i profitti di ALCOA avrebbero segnato un record e nel 2000, quando O’Neill se ne andò dall’azienda, gli utili netti erano quintuplicati rispetto al 1987.

L’aumento di sicurezza sul lavoro si trasformò in uno straordinario aumento di redditività.

Bibliografia minima

Charles Duhigg (2012), La dittatura delle abitudini, Corbaccio editore

Rod Wagner, Have We Learned The Alcoa ‘Keystone Habit’ Lesson?, Forbes

Spear, S. J. (1999). Workplace Safety at Alcoa (B). Harvard Business School Case

PS – Questo è l’ottantesimo post di questo blog. Numero, peraltro, divisibile per 20, anno entrante.

Corso di formazione: CLASSIFICAZIONE ATEX E RISCHIO DI ESPLOSIONE: WORKSHOP AVANZATO (MILANO, 7 FEBBRAIO 2020)

Share

Dell’energia e delle “soluzioni semplici”

Ogni tanto qualche politico di grido si spinge a declamare la soluzione del problema energetico italiano con brevi slogan: soggetto, predicato e complemento. A volte nemmeno questi.

In fondo la soluzione di problemi complessi passa da soluzioni semplici, no?

Approfondiamo un po’ l’argomento, se vi va, in questi primi giorni del terzo decennio del 2000.

Nella tabellina che riporto qui sotto, della statunitense EIA,si leggono un po’ di cose interessanti.

La prima: se leggiamo la colonna “Total system LCOE” in assoluto le fonti energetiche meno costose sono l’idroelettrico, il ciclo combinato gas-vapore (a metano) ad alta efficienza e il geotermoelettrico. Tutte attorno ai 40 dollari per MWh (megawattora) prodotto.

La seconda: l’eolico onshore e il fotovoltaico costano il 50% di più rispetto alle fonti più economiche.

La terza: nucleare e carbone con sequestro della CO2 costano il doppio dell’idroelettrico.

La quarta: la disponibilità della fonte energetica è molto varia. Su 24 ore le fonti fossili, il nucleare e il geotermoelettrico garantiscono una presenza del 90% (il 10% sono fermi impianto riconducibili a manutenzione programmata), l’idroelettrico il 75%, l’eolico onshore il 40% e il fotovoltaico il 30% (quando c’è il sole…)

È fatta, quindi! La decarbonizzazione passa da geotermoelettrico, fotovoltaico ed eolico. Non siamo forse il paese del mare e del sole?

…più o meno, diciamo…

I vincoli insuperabili delle risorse rinnovabili sono la possibilità di sfruttarle e la loro disponibilità. Nostro Signore dell’Energia non è stato affatto democratico nell’assegnare ai popoli le varie risorse.

All’Islanda ha garantito geotermoelettrico e idroelettrico totale.

Alla Danimarca l’eolico.

Il resto delle nazioni devono barcamenarsi tra risorse fossili [magari con giacimenti di proprietà, come, per esempio, il carbone in Germania e il gas naturale (in esaurimento) in Norvegia e, ancora per pochissimo, in UK] e rinnovabili.

Peraltro anche nella florida (si fa per dire) Islanda, le automobili e i trasporti su gomma bruciano energia fossile.

E in Danimarca il fossile serve pure a riscaldare le case.

In linea di massima una nazione ha tre grandi utilizzi energetici (al netto delle perdite):

  1. industria;
  2. trasporti;
  3. civile ed agricoltura.

suddivisi, in fonti primarie, al 30% ciascuna (circhissima). Considerando le perdite per cause varie, avremmo un 25% ciascuno. L’energia elettrica, come fonte primaria, è pari invece al 30% (circhissima) e si redistribuisce per metà nell’industria e per l’altra metà nel civile e agricoltura (al netto delle perdite).

Anche nell’ipotesi che una nazione converta la propria produzione elettrica in fonti rinnovabili avrebbe risolto solo il 30% del problema. Il resto dell’energia si ottiene bruciando (tranne sempre la straordinaria Islanda che riscalda pure le case con il geotermico. Un po’ di puzza di uova marce è il pegno che gli islandesi devono pagare. Poca cosa).

E l’Italia?

L’Italia è un “casino”, perdonate il francesismo.

E poteva essere altrimenti?

Nucleare: no, non si può. A parte i referendum (si sa che possono essere disapplicati) il problema risiede nella lunghezza dei progetti. Per costruire una centrale elettronucleare di generazione III+ ci vogliono, butto lì, 20 anni, a partire dall’ideazione fino alla prima criticità del reattore. E 20 anni, in Italia, sono un’enormità se teniamo in conto le dinamiche della politica. Per 20 anni tutte le forze dell’arco costituzionale che prevedibilmente andranno al potere dovranno essere favorevoli al progetto. Poiché la cosa è semplicemente impossibile, il nucleare in Italia non potrà mai vedere la luce. Poi c’è il problemino dei rifiuti nucleari di Saluggia. Ma di quelli ne parleremo quando la Dora Baltea esonderà contaminando parte del nord Italia. Nel lungo periodo accadrà. Basta attendere.

Fotovoltaico: si, va bene. Contribuisce a ridurre l’emissione di CO2 in atmosfera. Ma non è disponibile sempre. Lo è per il 20-30% (siamo generosi). Con enormi problemi di dispacciamento stante la diffusa produzione grid-connected. E per il rimanente 70% del tempo? Utilizziamo gli impianti elettrotermici convenzionali (che devono essere in perfetto backup con la risorsa rinnovabile) e importiamo energia nucleare dal Francia, Svizzera e Slovenia. Non ditemi che non lo sapevate. Esistono un equivalente di quattro-cinque centrali elettronucleari che lavorano solo per l’Italia, fuori dall’Italia (diamo un’occhiata qui se non siamo convinti). Anche in questo caso l’importante è avere il vantaggio dell’energia senza pagarne le conseguenze. Siamo denuclearizzati ma utilizziamo 4-5.000 MW di potenza prodotta con barre di U238 arricchito con U235. I vantaggi della tecnologia senza la responsabilità di doverla gestire e rischi ad essa connessi. Va bene così, giusto?

Eolico: straordinaria fonte. Quando funziona. Ho visto personalmente bellissimi parchi eolici in Puglia. In altre parti d’Italia la situazione è forse migliorabile. Teniamo in ogni caso conto del fatto che in pianura padana non sarebbe buona cosa installare aerogeneratori. Verrebbero nascosti dalla nebbia (ah, non c’è più nemmeno quella?).

Idroelettrico: rappresenta circa il 30% dell’intera energia elettrica prodotta in Italia. Ce n’è da andare particolarmente fieri (non scherzo). Teniamocelo stretto. Annotazione: non è espandibile. Di bacini e di invasi sfruttabili non ce ne sono davvero più.

Geotermoelettrico: a Larderello c’è uno straordinario sfruttamento di questa risorsa che è un regalo che è stato fatto all’Italia (l’unico). Anche lì abbiamo lavorato bene. Siamo i principali produttori in Europa (prima anche dell’Islanda). Ma nel quadro complessivo la produzione data dal calore della terra è poco. Molto poco se raffrontato alle esigenze italiane.

Termoelettrico convenzionale ed avanzato: brucia prevalentemente gas naturale e sostiene il 70% dei consumi elettrici nazionali. È stato messo in crisi, economicamente, dal fotovoltaico che costa meno (grazie agli incentivi) ma che ha bisogno del backup. Se non c’è sole come illuminiamo la casa della signora Maria? Bruciando metano in centrali turbogas che vengono spesso tenute sostanzialmente “spente”, causando non pochi problemi di sostenibilità economica della filiera.

Fino ad adesso abbiamo però discusso del solo 30% dei consumi, quelli elettrici. Poi ci sono i trasporti, che vanno a gasolio e benzina, e i servizi (come riscaldiamo la casa della signora Maria?).

Cioè buona parte del consumo energetico italiano proviene ancora da fonte fossile. Il 70% dell’elettrico e la totalità del rimanente.

Esiste una soluzione semplice ad un problema complesso come quello energetico italiano, quindi?

A ciascuno di noi la risposta, ben sapendo che viviamo in un paese ormai incrollabilmente tecnofobico[1].

[1] Ricordo ancora cosa accadde nella mia regione, il FVG, quando nel 2015 si volle ammodernare la rete di trasmissione ad alta tensione. Ci fu chi, confusamente, immaginò di dover interrare linee da 380 kV per centinaia e centinaia di km. Comitati Nimby locali e politici regionali. Poi la linea si fece con buona pace di tutti. Ma la cascata di mail “poco amichevoli” ricevute in conseguenza di questo mio unico intervento sulla stampa locale la rammento ancora.

Corso di formazione: CLASSIFICAZIONE ATEX E RISCHIO DI ESPLOSIONE: WORKSHOP AVANZATO (MILANO, 7 FEBBRAIO 2020)

Share