Grazie agli studi di Reason, Kahneman, Gigerenzer e Hollnagel (e molti altri ancora. Cito solo autori che ho studiato in prima persona) sappiamo molto dell’ampio capitolo intitolato “Gli errori umani”.
Nell’ambito della sicurezza (sul lavoro, di processo, ecc.) si è, a seguito di questi studi, consolidata l’idea[1] che l’errore umano sia cosa assolutamente da evitare, necessariamente sempre negativa e dalla quale ci si debba strenuamente difendere.
Per converso Nassim Nicholas Taleb pone l’errore alla base dell’antifragilità. Chi non sbaglia non evolve, non modifica i propri comportamenti e, in conseguenza di questo, diverrà prima o poi “preda” di qualcuno. Di qualcosa.
In realtà ciò che asseriscono gli studiosi dell’errore umano è cosa un po’ differente dalla demonizzazione dello “sbaglio”. Le persone (tu che stai leggendo, io, l’umanità intera) commettono una quantità straordinaria di errori ma questi, grazie agli studi citati, si possono riassumere e riepilogare in precise categorie “linneane”, che non approfondisco volutamente in questa sede[2].
E quindi?
Sbagliare è bene oppure è “sbagliato”?
Semplicemente credo che l’errore sia intrecciato a tutti i nostri processi cognitivi di apprendimento. Se non sbagliamo non impariamo. Di più: non possiamo dire di avere imparato “qualcosa” se prima non abbiamo commesso una qualche forma di errore in relazione ad “essa”.
Certamente esistono ambiti nei quali l’errore è “gratuito” e senza conseguenze (immagino il contesto scolastico e universitario. Al massimo si torna al posto con un “quattro” oppure si ridarà un esame) ed altri settori in cui lo sbaglio è intollerabile (camera operatoria, processi industriali a rischio di incidente rilevante, gestione delle emergenze, ecc.)
Come ci poniamo?
Direi che l’essere consapevoli della nostra fallibilità (da intendersi come singola o dell’organizzazione) è un deciso passo in avanti nell’ambito della sicurezza tecnologica “evolutiva” ed “antifragile”.
Asserire che un dato fatto ha avuto luogo per “colpa di altri” non consente di mettersi in gioco e impedisce di porre rimedio all’agire scorretto. Quando ricapiterà l’occasione, se non si è presa coscienza del proprio comportamento anomalo (singolo o organizzato), si ri-sbaglierà.
Diventa quindi fondamentale imparare certamente dai propri errori ma, molto di più, da quelli commessi da altri.
Per questo, però, vi è la necessità di inchieste “laiche” sugli accadimenti incidentali sulla scorta di quanto già ha luogo in ambito aeronautico oppure, discutendo del settore industriale, prendendo spunto dal modello anglosassone.
Per capirci, non possiamo fare saltare per aria uno stabilimento industriale per vedere “l’effetto che fa”, su questo concordiamo tutti, immagino. A seguito di un incidente, però, è necessario estrarre da questo tutte le informazioni utili sulle dinamiche che lo hanno determinato (andando anche oltre lo human error, ovviamente).
In Italia, purtroppo, ci si scontra con le dinamiche processuali che rendono difficile l’accesso alla realtà del fenomeno incidentale, perdendo così preziose informazioni “maestre”. Un primo motivo è dovuto al fatto che il “lavorio” processuale è finalizzato ad individuare responsabilità penali e non certo regole generali da utilizzarsi per prevenire futuri incidenti. Una seconda motivazione è connessa alla difficoltà ad accedere alle preziose informazioni tecniche contenute nelle perizie prodotte dalle varie parti in causa.
Peraltro, ritornando al tema di partenza, sapere come sbagliamo consente di farlo in modalità sicura: l’installazione di una barriera immateriale protegge dallo slip e dal lapse, per esempio.
…ovviamente se non viene bypassata…
___
“Penso dunque sono sbaglio” (semi-cit.)
___
[1] Ingenua
[2] Ne ho parlato parecchie volte, pure in questo blog