Maslow, motivazione e rischio

Spesse volte accade che nei corsi in tema di sicurezza sul lavoro intervengano psicologi per due motivi principali.

Il primo: lo stress lavoro correlato. Non entro nemmeno nell’argomento. Si è detto, sul tema, tutto e il suo contrario. E non ho nemmeno una posizione chiara in merito.

Il secondo: le motivazioni umane ed organizzative alla sicurezza, spesse volte nell’ambito di corsi inerenti i sistemi di gestione della sicurezza sul lavoro (SGSL). E cosa c’è di immancabile nella cassetta degli attrezzi che ci si porta a casa dopo un corso di questo tipo? Ovviamente la piramide di Maslow con la quale si fornisce la mappa delle motivazioni al comportamento umano, singolo e/o organizzato, in tema di sicurezza.

Abraham Maslow fu uno psicologo umanista statunitense e le sue teorie ebbero grandissimo successo nell’America anni ’60. Spiegavano (spiegano) in modo semplice e comprensibile uno dei problemi da secoli oggetto di dibattito: cosa c’è dietro la motivazione umana? Peraltro è abbastanza recente la pubblicazione in lingua italiana del saggio che compendia complessivamente la sua teoria: Motivazione e personalità.

Maslow, in estrema sintesi, crea una gerarchia piramidale tra i bisogni umani e postula che, per avvertire la necessità del soddisfacimento dei bisogni apicali della piramide, sia prima necessario appagare le esigenze poste alla base della medesima. Detto in termini un po’ prosaici: prima mangio, poi mi copro e solo allora posso pensare di elaborare la parafrasi sensata di una terzina di Dante.

Così dovrebbe avvenire nella vita sociale, così dovrebbe avvenire negli ambiti lavorativi, così (ancora) dovrebbe accadere nell’ambito della sicurezza sul lavoro.

Ovviamente, come è bene comprensibile, la teoria di Maslow, proprio perché riconduce un problema enorme e complesso ad una narrazione semplice ed immediatamente comprensibile, non può essere corretta. Non a caso è stata nel corso degli anni variamente criticata senza mai giungere, tuttavia, ad una sua completa falsificazione. D’altronde si discute di psicologia e non di fisica quantistica.

Quello che personalmente a me (meccanico di provincia) non torna, sono le seguenti cose tre cosine:

  1. Non credo risponda al vero una scala dei bisogni costante per ogni epoca sociale, economica e di vissuto personale. In fase di crisi e/o incertezza si ha minore tendenza all’apertura, alla volontà di autoaffermazione, rispetto a periodi espansivi. Laura Carstensen, una docente di Stanford, a questo proposito, condusse una ricerca ad Hong Kong prima, durante e dopo il passaggio del controllo politico dalla Gran Bretagna alla Cina. I comportamenti sociali tipici della parte alta della piramide di Maslow, presenti durante in controllo inglese, si abbassarono di livello durante le fasi di incertezza, per poi ripristinarsi quando si comprese che, tutto sommato, la Cina decise di lasciare immutate le dinamiche economiche esistenti.
  2. Il comportamento dei ragazzi è molto spostato verso la parte alta della piramide, a dispetto soprattutto dei bisogni di sicurezza e stabilità. La tendenza al rischio volto al raggiungimento di una propria personale affermazione contrasta non poco con i postulati espressi da Maslow. E non discuto solo di sicurezza sul lavoro, ovviamente.
  3. Per converso, i tipici comportamenti dell’età adulta appaiono molto meno espansivi in termini di socialità e apertura alla novità ricercando molto di più sicurezza sia nelle relazioni sociali come nel rapporto e nelle condizioni di lavoro. In questo ambito, probabilmente, la piramide di Maslow fornisce previsioni più credibili.

Insomma, non diamo per scontato che tutte le “mappe” che ci vengono fornite siano affidabili. Utilizzare le teorie di Maslow per spiegare gli andamenti infortunistici in azienda o per cercare di motivare alla sicurezza il comportamento singolo o dell’intera organizzazione, come ho purtroppo visto fare, potrebbe essere non solo semplicemente inutile.

Ma addirittura controproducente.

PS – No, non nutro particolare acredine verso la specifica forma geometrica.

© Marzio Marigo

Share

Del colloquio di lavoro e di un incidente nucleare

Sei rimasto a casa dal lavoro perché devi sostenere, questa mattina, un importante colloquio presso una grande società di ingegneria che ha gli uffici posti in prossimità del centro della città. Tua moglie è già uscita di casa ma ti ha lasciato la caffettiera sul fornello per velocizzare il tuo, sempre problematico, risveglio. L’ha già riempita di caffè ben tostato ma si è, purtroppo, dimenticata dell’acqua. Accendi il gas e, dopo un po’, avverti un odore di gomma bruciata. La guarnizione è danneggiata e la valvola di sicurezza della parte inferiore della caffettiera irrimediabilmente rotta. Dato che non è proprio pensabile che tu possa sostenere un colloquio di lavoro senza la tua dose di caffeina quotidiana, rovisti nell’armadio della cucina fino a quando ritrovi una vecchia moka.

La tua salvezza.

La riempi d’acqua, premi per bene il caffè sopra, e aspetti il gorgoglio familiare, guardando con una certa apprensione l’orologio posto sul tavolo.

Bevi il caffè in velocità.

Ora sei pronto per l’importante impegno che ti attende.

Ti precipiti fuori dalla porta ma, quando arrivi all’auto, ti accorgi di aver lasciato sia le chiavi dell’automobile, sia quelle di casa… dentro casa.

Maledizione.

Ok, niente panico, sei previdente, in fondo conservi sempre una seconda chiave di casa in un luogo segreto che conosci solo tu (questa, di fatto, rappresenta una misura di sicurezza ridondante, spieghi sempre nei tuoi corsi). Fai mente locale, ti appresti a risalire le scale ma un pensiero sconfortante ti assale. Hai prestato la “chiave di emergenza” ad un tuo amico che avrebbe dovuto restituirti dei libri ma non sapeva quando sarebbe passato di là (ha cambiato di recente città, infatti).

Tu e tua moglie non siete quasi mai in casa (troppo lavoro, troppi impegni, troppi casini) e il tuo amico avrebbe potuto restituire il prezioso ed introvabile manuale di sicurezza industriale solo in questo modo.

Insomma, gli eventi che non ti consentono di utilizzare né la chiave normale né quella di emergenza sono stati generati da una unica causa comune: te stesso. Tecnicamente sei una “Common Cause Failure”, CCF, diresti proprio tu nei tuoi corsi.

Si sta facendo tardi, ma c’è sempre l’auto del tuo vicino. Un signore in pensione che usa la macchina una volta al mese e la mantiene in buona efficienza.

Bussi alla sua porta.

Ti apre e ti guarda come se fosse sveglio da ore, ormai.

Racconti brevemente quanto ti è accaduto.

Lui gentilmente ti risponde che si, presterebbe la propria auto ad un “giovanotto” come te, ma la sua gloriosa FIAT ha l’alternatore guasto, l’elettrauto se l’è portato via la scorsa settimana e, proprio oggi pomeriggio, viene a rimontarlo.

“Cavolo”, pensi, “un altro sistema di backup non ha funzionato”. Peraltro questo, a differenza dell’altro, senza alcuna causa comune alla radice. Tu e l’alternatore dell’auto del tuo vicino di casa non siete in relazione né diretta, né indiretta.

Sconsolato, ormai, ti rassegni a prendere l’autobus ma… c’è un “ma” anche questa volta. Il tuo vicino (diavolo di un vicino!) ti informa che c’è uno sciopero generale dei bus proprio oggi. In effetti, facendo mente locale, ricordi di aver sentito alla radio che c’era un’agitazione in atto da tempo. Gli autisti si rifiutano di guidare dei mezzi che sono, a loro dire, non sicuri. Questa protesta, inoltre, porta con sé anche una rivendicazione salariale.

Avverti un sottile fremito alla bocca dello stomaco e telefonando alla stazione dei taxi, ti rendi conto che non ce n’è nessuno disponibile. Lo sciopero dei bus ha generato la penuria di taxi. Comprendi immediatamente che questi eventi sono, tra loro, strettamente connessi. Fortemente accoppiati, direbbe il professor Charles Perrow, lo scienziato sociale che postulò, negli anni ’80, la “normalità” nell’accadimento degli incidenti industriali (Normal Accident Theory, NAT).

Non ti resta altro da fare che chiamare mestamente la segretaria della società di ingegneria che ti aveva contattato la scorsa settimana e, sconsolato, cerchi di spiegare cosa ti è capitato. La signora Blücher, Frau Blücher (si, come quella dei cavalli di “Frankenstein Junior”. In fondo la società che ti ha chiamato è tedesca) ti ascolta in silenzio e risponde che “si, è un po’ strano. Ne prenderò nota e trasmetterò l’informazione. La contatteremo di nuovo noi, non si preoccupi”.

Nel file del tuo profilo, tra le annotazioni, scriverà: “Persona inaffidabile”.

Chiediamoci ora: Qual è stata la causa principale di questo “incidente”? Perché, cioè, hai perso l’opportunità di un nuovo lavoro?

1) Errore umano (es. dimenticarsi l’acqua del caffè, dare le chiavi di emergenza al proprio amico)?

2) Guasto meccanico (es. alternatore dell’auto)?

3) Ambiente (es. sciopero dei bus e taxi introvabili)?

4) Errore di progettazione del sistema (es. possibilità di rimanere chiusi fuori casa, impossibilità di sopperire allo sciopero dei taxi)?

5) Procedure utilizzate (es. lasciare il caffè sul fornello, ecc.)?

Hai risposto?

Rivelo ora un segreto: questo racconto è, in metafora, quanto realmente accaduto, nel 1979, nel corso del disastro nucleare di Three Mile Island, il primo grande incidente con fusione del nocciolo della storia della generazione elettronucleare moderna.

Dunque, se hai risposto “SI” alla prima domanda ti sei orientato come i periti della Commissione Presidenziale incaricata di accertare le responsabilità.

Se invece hai risposto “SI” alla seconda domanda hai giudicato le responsabilità come i gestori dell’impianto nucleare, la Metropolitan Edison.

Se, infine, hai detto “SI” alla quarta domanda, hai avuto la medesima idea dei tecnici dell’Essex Corporation incaricata dall’NRC (Nuclear Regulatory Commission) di far luce sull’incidente.

Secondo Charles Perrow, invece, la migliore risposta da dare è “Nessuna delle precedenti”.

La causa dell’incidente è semplicemente data dalla complessità del sistema che possiede forte interattività e accoppiamento tra le variabili in gioco. In queste situazioni un incidente è “normale”.

Tornerò in futuro su questa interessante teoria.

Liberamente tradotto ed adattato da: Perrow C., Normal Accidents: Living with High-Risk Technologies, Princeton University Press (USA), 1999

© Marzio Marigo

Share

Errore umano e sicurezza tecnologica

Quanto e come sbaglia una persona? E’ possibile determinare, in modo sufficientemente preciso, un parametro che specifichi l’affidabilità umana nell’esecuzione di un dato compito? Tali tipologie di domande si sono poste in settori nei quali era necessario determinare in modo oggettivo l’affidabilità di processi particolarmente pericolosi e a rischio (es. settore aeronautico, nucleare, chimico, ecc.). Sono tuttavia presenti limitazioni e difficoltà, nelle risposte, che includono almeno i seguenti aspetti:

  • il comportamento umano è complesso e non si presta a essere descritto come un semplice componente di un sistema elettromeccanico. La prestazione umana, a fronte di una sollecitazione esterna, può essere influenzata da fattori sociali, ambientali, psicologici, organizzativi e fisici difficilmente classificabili;
  • l’azione umana non si può considerare esclusivamente in modo binario (successo o guasto), come in un sistema hardware;
  • i maggiori problemi che si incontrano nella valutazione dell’affidabilità umana sono relativi ai dati comportamentali in situazioni estreme e/o di emergenza.

Tuttavia, pur tenendo in considerazione i limiti dell’analisi, osserviamo innanzi tutto che è necessaria una sicura distinzione tra i possibili errori che possono essere commessi da un essere umano. Essi si suddividono in quattro tipologie differenti:

  • gli slips;
  • i lapses;
  • i mistakes;
  • le violazioni volontarie.

Qui ci occuperemo delle prime tre tipologie di errore, richiedendo la quarta opzione un approfondimento specifico e dedicato. Alla prima categoria, gli slips, appartengono le piccole azioni, frequentemente svolte, che sono eseguite in modo differente da quanto voluto. Alcuni esempi:

  • durante la movimentazione con un carroponte di una massa dal peso rilevante, si preme sulla tastiera di comando il tasto “discesa” al posto di quello “salita”;
  • si legge, in un pannello di controllo, uno strumento (es. voltmetro) scambiandolo per un altro (es. amperometro);
  • agendo su una saracinesca di intercettazione, si aumenta il flusso di liquido all’interno della tubazione invece di intercettarlo.

Tali errori risultano tanto più frequenti quanto meno ergonomicamente sono progettati i posti di lavoro. Misure indispensabili finalizzate ad una loro diminuzione consistono nella chiara ed univoca identificazione di strumenti, apparecchiature e sistemi di comando controllo nonché nell’adozione delle misure tecniche necessarie per rendere difficoltoso l’azionamento accidentale dei comandi stessi.

La seconda categoria, i lapses, sono degli errori di memoria, particolarmente presenti durante fasi di lavoro proceduralizzate . E’ infatti sempre possibile scordarsi alcuni passaggi fondamentali, in un lavoro che richiede più fasi articolate di intervento. Soprattutto se quest’ultimo deve essere realizzato velocemente e senza supervisione. Alcune misure importanti per ridurre l’accadimento di tali errori consiste nell’adozione di checklist operative spuntabili, che permettono di tenere sotto controllo l’avanzamento del processo. A questo proposito esistono almeno due tipologie di checklist operative:

  • esecuzione e conferma;
  • lettura ed esecuzione.

In entrambi i casi deve essere prevista la casella di spunta, per dare evidenza dell’operazione effettuata. Le checklist non possono essere vaghe o imprecise. I termini opportuno, adeguato, idoneo devono essere banditi da una checklist realmente operativa. La descrizione delle voci non deve essere lunga e non deve proporsi lo scopo di descrivere ogni particolare dell’aspetto trattato. L’utenza alla quale si rivolge è professionale e dovrebbe avere bene presente ciò che si appresta a fare. Devono andare direttamente al punto di verifica ed essere fruibili anche i circostanze di forte stress emotivo. Devono limitarsi a ricordare le azioni più importanti da attuare e il corretto ordine necessario all’esecuzione. Nelle checklist troppo lunghe alcuni passaggi tendono a essere saltati. E’ per questo che, in Boeing, la regola di massima è di realizzare liste di controllo con un numero massimo di voci compreso tra cinque e nove.

L’ultimo tipo di errore, i mistakes, sono essenzialmente scorrette operazioni di diagnosi o di pianificazione. Si conosce l’obiettivo che si vuole raggiungere ma, sbagliando la diagnosi iniziale del problema, si propongono soluzioni errate che non ne permettono la soluzione. Questo è un tipico errore dovuto a carenze di expertise professionale. E’ per questo che la soluzione non può che passare attraverso una maggior qualifica degli operatori (=maggiore informazione, addestramento e formazione) oppure, in alcuni casi complessi, attraverso la discussione delle problematiche in riunioni tecniche specificamente dedicate.

Nell’ambito della valutazione dell’affidabilità umana sono state elaborate, a partire dagli anni ’70, molte metodologie di analisi. Alcune particolarmente complesse e indirizzate al solo ambito nucleare, altre più flessibili e con un campo applicativo più vasto. Si citano, a titolo riepilogativo, le seguenti:

  • Ambito nucleare: WASH 1400, THERP, ASEP, SPAR-H, ATHEANA, CREAM, SLIM-MAUD, HRMS, JHEDI, INTENT, CESA, CODA, MERMOS, NARA
  • Ambito generico: HEART, APJ, PC, CAHR,

Un’analisi di questi studi porta a concludere che una persona può manifestare differenti “fallibilità” in relazione alla specificità del compito che sta svolgendo. In particolare i tassi di errore umano che quantifica lo storico Rapporto Rasmussen del 1975 denominato WASH 1400 (cfr. nota 1) sono i seguenti:

  • eseguire banali calcoli aritmetici porta con sé una fallibilità del 3%;
  • la supervisione fatta sull’operatore di altri lavoratori è fallibile nel 10% dei casi, soprattutto all’inizio della verifica;
  • l’esame ordinario a vista condotto in assenza di liste di controllo porta con sé un 50% di guasti non rilevati.

Altresì interessanti risultano gli errori che si commettono in condizioni di stress elevato come, per esempio, durante la gestione di un’emergenza in atto. In tali circostanze si evidenziano tassi di errore che, nelle fasi primarie di emergenza, risultano pressoché totali (100%). All’aumentare dell’intervallo dall’inizio dell’emergenza tale indice gradualmente si riduce fino ad arrivare all’1% a diverse ore dall’inizio dell’evento emergenziale.

E’ consuetudine, tra chi si occupa di affidabilità umana, quantificare un tasso di errore per attività generiche pari al 3%. In generale, quindi, risulta confermata la “regola aurea” la quale valuta che ciascuno di noi, mediamente, compia almeno sei errori significativi alla settimana. Errori che, in presenza delle opportune condizioni al contorno, si possono trasformare in incidenti.

Ora che conosciamo le varie tipologie di errore umano passiamo agli esercizi…

Proviamo a:

  1. elencare almeno due esempi di slips, due lapses e due mistakes;
  2. servendosi dei dati e dei tassi di errore precedentemente indicati, quantifichiamo il numero di sopralluoghi necessario alla valutazione dei rischi presenti in un reparto di una media attività industriale.
  3. postare i risultati dei punti a) e b).

ANNOTAZIONI

Nota 1: Il rapporto WASH 1400, pur essendo ora considerato obsoleto, ha costituito per diverso tempo, nonostante le critiche, lo stato dell’arte sulla quantificazione dell’affidabilità dei sistemi di sicurezza implementati nella tecnologia nucleare.

PER APPROFONDIMENTI

Catino M., Da Chernobyl a Linate. Incidenti tecnologici o errori organizzativi?, Bruno Mondadori, 2006

Marigo M., La manutenzione di macchine ed impianti. Sicurezza ed affidabilità., EPC, 2012

Smith D. J., Reliability, Maintainability and Risk (VIII Ed.), Butterworth-Heinemann, 2011

NUREG-75/014 (WASH-1400)

(Post pubblicato originariamente su Postilla.it il 8/4/2013)

© Marzio Marigo

Share