Pubblicato in: rischio chimico, valutazione dei rischi

ANA.R.CHIM. è ri-tornato!

WewillbefreeVi avevo già parlato di ANA.R.CHIM. (ANAlisi del Rischio CHIMico) spiegandone le qualità terapeutiche quando si tratta di fare valutazioni del rischio chimico.

Bene, oggi ricevo la telefonata di un’utente (c’è l’apostrofo perché era una donna) che, in preda a grande agitazione, senza nemmeno dirmi con chi stessi parlando, mi fa:

Un’utente (l’apostrofo ci vuole sempre per quella faccenda del femminile): «Ingegnere, mi scusi se la disturbo. Sto utilizzando ANA.R.CHIM. e ho qualche problema».
IO: «Suppongo vi sia un nesso di causalità tra le due cose. Succede… So di gente che, dopo aver scoperto ANA.R.CHIM., ora, tutte le volte che prova ad usare Movarisch, gli puzzano le ascelle di elicottero».
Un’utente: «No, il mio problema è che credo che nel file di ANA.R.CHIM. vi sia un errore».
IO: «Si rende conto di quello che sta dicendo?»
Un’utente: «Comprendo la gravità della situazione e mi assumo la responsabilità dell’accusa».

Un’utente mi invia dunque il file che aveva compilato con le indicazioni per comprendere dove fosse l’errore e, in effetti, aveva ragione.

Capisco immediatamente che l’unica via d’uscita per espiare la mia colpa è il seppuku e mi appresto ad eseguire il rituale.
La questione è complessa… Si tratta di praticarsi uno squarcio all’addome usando un wakizashi (che non possiedo). Il taglio deve essere eseguito da sinistra verso destra e poi verso l’alto mentre ci si trovava nella classica posizione giapponese detta seiza, cioè in ginocchio con le punte dei piedi rivolte all’indietro (in questo modo il corpo cade in avanti, come è previsto per certificare la morte onorevole).
Ho chiesto inoltre a mia moglie di essere la mia kaishakunin. In pratica, deve semplicemente decapitarmi quando sono ancora vivo, subito dopo che mi sia inferto la ferita mortale, con un colpo solo, prima che il dolore mi sfiguri il volto.

Anche se mia moglie insisteva per procedere in fretta che doveva preparare la cena, ho capito che tutta la faccenda richiedeva troppa sbatta… Scrivi un biglietto d’addio, recupera un wakizashi affilato, insegna a mia moglie come decapitarmi senza procurarmi sofferenze inutili con il coltello da cucina…

Ho quindi, più prosaicamente, ripiegato sulla correzione del foglio excel di ANA.R.CHIM. che, dunque, ora si aggiorna alla versione del 15 maggio 2018.

SI SCARICA DA QUA

N.B.: l’errore che ho corretto non pregiudica la validità delle valutazioni precedentemente effettuate.
Si trattava semplicemente di un refuso all’interno  cartella Val-INA che impediva di eseguire la valutazione quando si inserivano più di 100 sostanze pericolose.

 

Annunci
Pubblicato in: sorveglianza sanitaria, valutazione dei rischi

Tempi bui… Quando è obbligatoria la sorveglianza sanitaria?

stupore-paura-bimboSono tempi bui quelli nei quali le circolari interpretative della norma non c’hanno capito nulla della norma da interpretare.
È il caso della recente Lettera Circolare del 12 ottobre 2017, n. 3 dell’Ispettorato Nazionale del lavoro la quale, nel fornire indicazioni operative sulle sanzioni da applicare in caso di omessa sorveglianza sanitaria, esordisce così:

«Come è noto, nell’ambito della normativa in materia di salute e sicurezza la sorveglianza sanitaria dei lavoratori, così come declinata dall’art. 41 del d.lgs. n. 81/2008, diviene un obbligo nel momento in cui la valutazione dei rischi evidenzi la necessità di sottoporre il lavoratore a sorveglianza sanitaria».

No. Ma proprio no.
La sorveglianza sanitaria non è obbligatoria quando lo dice la valutazione dei rischi, ma quando lo dice la legge, che lo dice all’art. 41 e la impone:

  • nei casi previsti dalla normativa vigente, dalle indicazioni fornite dalla Commissione consultiva di cui all’articolo 6;
  • qualora il lavoratore ne faccia richiesta e la stessa sia ritenuta dal medico competente correlata ai rischi lavorativi.

Leggete da qualche parte «nel momento in cui la valutazione dei rischi evidenzi la necessità di sottoporre il lavoratore a sorveglianza sanitaria»?
Non puoi fare come ti pare. La sorveglianza sanitaria è una misura ON/OFF. O la devi fare o non la puoi fare.

L’obbligo imposto dalla norma precede l’esito della valutazione dei rischi, tanto che:

  • se hai sbagliato la valutazione, non per questo l’obbligo viene meno;
  • se secondo la valutazione dei rischi hai ritenuto di dover sottoporre a sorveglianza sanitaria i lavoratori, ma non ricadi nei casi in cui la norma la imponga… Beh, non lo puoi fare.

Ed è pieno di casi in cui la norma non la impone, tipo (per citare casi in cui ho visto effettuare la sorveglianza sanitaria):

  • lavori in quota (citati all’interno della Circolare come casi in cui la sorveglianza sanitaria sarebbe obbligatoria agli esiti della valutazione);
  • stress lavoro-correlato;
  • rischio “posturale”.

In questi ed in tutti gli altri casi in cui la norma non preveda la sorveglianza sanitaria, essa è da intendersi vietata in virtù dell’art. 5 della L. n. 300/1970 (Statuto dei lavoratori).

Pubblicato in: cultura della sicurezza, incidenti

Scommetto 1€ sull’esistenza di Dio

La teoria delle probabilità risale alla seconda metà del XVI secolo.

Ora, questa è una roba che, tutte le volte che ci penso, mi manda in pappa il cervello: prima di quest’epoca le persone non assegnavano un senso matematico alle possibilità che accadesse una cosa anziché un’altra.

Lanciavano un dado a 6 facce? Non si ponevano proprio il problema che ogni faccia avesse una probabilità di uscire pari a 1/6. No, erano gli dei (o Dio) a determinare esito, frequenza degli esiti e tutto il resto. Non intuivano che dietro c’era una matematica e che tale matematica era particolarmente interessante da conoscere quando i possibili eventi non erano equiprobabili. Semplicemente non ci pensavano. Pazzesco, eh?

La tradizione fa a risalire a Pascal la nascita del concetto di probabilità. A Pascal era stato posto un quesito da un giocatore d’azzardo che cercava un modo per vincere matematicamente ai dadi. Stavano viaggiando in carrozza e quello lì gli fa: «Ho tirato il dado 4 volte e mi è uscito un 6. Questo significa che, se gioco con due dadi, su 24 tiri mi deve uscire un doppio 6. Monsieur Pascal è matematica e, come lei mi insegna, la matematica non è un’opinione. E invece non succede… I dadi sono truccati?».

Il ragionamento non fa una piega!

Ma in effetti, anche Pascal (ed era Pascal, eh… Uno di cui hanno calcolato dovesse avere un quoziente intellettivo di 185!)  lì per lì non riesce a trovare una risposta e allora che fa? Scrive a Fermat una lettera che, più o meno, doveva suonare così:

«Caro Fermat,
come stai? Qui tutto bene. Hai visto il mio ultimo teorema? Stai a rosica’, eh?
Non te la prendere, sto scherzando: permalosone! (N.d.R. ancora non avevano inventato le emoticon e dovevano stare molto attenti a quello che scrivevano).
Senti un po’… ho avuto un’ideuzza che potrebbe farci diventare ricchi… Si tratta di risolvere un problemino semplice, semplice e in due ce la possiamo fare: secondo te, quante volte devo lanciare due dadi per essere sicuro che esca un doppio 6?

Ah, Ferma’… Quando scrivi i teoremi, ricordati di metterci anche la dimostrazione…
Cordialmente, tuo Blaise».

A forza di scambiarsi lettere con Fermat, Pascal alla fine trova la soluzione e mette su le basi della teoria delle probabilità.

E grazie a Pascal (e Fermat) possiamo, oggi, parlare di rischio come di una funzione associata a probabilità e gravità. Pensate a come sarebbe stata la definizione di rischio all’art. 2, comma 1, lett. s) del D.Lgs. n. 81/2008 senza il contributo di Pascal: «esito di una punizione divina che si manifesta in forma di raggiungimento del livello potenziale di danno per una persona».

In tre precedenti post (primo, secondo e terzo) ho cercato, comunque, di rappresentare come provare a fare valutazioni di rischi non misurabili – perché non se ne conosce la probabilità reale del loro manifestarsi – sia velleitario: nel mondo reale fare una valutazione dei rischi basandosi sulle probabilità è come scommettere sugli esiti di un dado truccato.

Persino nel dominio dei «fatti noti conosciuti», quello nel quale sappiamo cosa può accadere, non abbiamo valori di probabilità da associare ai vari esiti.

Come uscirne? In effetti non se ne esce, ma possiamo provare a darci un metodo per migliorare l’approccio…

La questione deve essere spostata dall’idea di poter fare una previsione della probabilità che un evento accada, alle decisioni da prendere quando si ipotizza che qualcosa possa accadere (i fatti noti conosciuti) o quando non si hanno sufficienti elementi su come stiano le cose (fatti ignoti conosciuti).

Uso sempre Pascal per spiegare il ragionamento, rifacendomi alla sua scommessa sull’esistenza di Dio (nota come «scommessa di Pascal»).

Per un agnostico, l’esistenza di Dio è un fatto ignoto conosciuto: sa di non sapere se Dio esista o meno e sa di non poterne dimostrare l’esistenza o il contrario, sospendendo il giudizio. Pascal gli dice (la mia versione moderna):

«Agno’, ma perché ti fai ‘sti problemi? Pensa alla salute… Scusa eh, supponi che Dio esista: che ti costa? Sì, per qualche decina di anni dovrai andare a messa tutte le domeniche, il venerdì non dovrai mangiare carne, ecc. ecc. Sono d’accordo, potrebbe essere una bella rottura. Se Dio non esistesse avresti perso un bel po’ di tempo inutilmente. In compenso, se Dio poco, poco esiste, c’hai guadagnato la vita eterna e neanche immagini che vita fanno lassù… altro che atti impuri…
Vedi agno’, la faccenda non è tanto se non credi e Dio non esiste: al massimo c’avrai guadagnato qualche bistecca il venerdì e ti sarai potuto ammazzare di atti impuri nel corso della tua vita (ok, non è poco).
Quello su cui devi ragionare è il worst case, il caso peggiore: Dio esiste, ma tu non c’hai creduto. Secondo te, Lui come  la vede la faccenda che tu abbia passato questi decenni ignorandolo, frequentando donnacce e votando comunista? Lo sai com’è fatto: come minimo ti schianta all’inferno senza pensarci due volte, nel braccio dei diavoli sodomizzatori e degli antivaccinisti».

In questo ragionamento (un po’ tirato, a dir la verità, ma che comunque ha buttato le basi della teoria dell’utilità attesa), Pascal ha completamente tolto dalle variabili la faccenda del calcolo delle probabilità di eventi di cui non si possono calcolare le probabilità, limitandosi a valutare le conseguenze.

Noi possiamo anche non sapere quali possano essere le probabilità del verificarsi di un dato evento negativo, ma siamo piuttosto bravini a ipotizzare le possibili conseguenze. In effetti, però, il problema è che anche le conseguenze possono essere molteplici e non è che uno possa sempre riferirsi al worst case, perché i costi sarebbero insostenibili.

Per andare incontro alle richieste del legislatore, che ci impone di fare comunque una valutazione dei rischi, possiamo allora provare a dare più peso alla nostra capacità di immaginare le conseguenze (che in linea di massima sono note e immaginabili), che associare delle probabilità (che ignoriamo completamente), senza affidarsi necessariamente al caso peggiore.

Da qualche anno a questa parte utilizzo una classica matrice 4 x 4 (come quella che praticamente tutti usano nei loro DVR), ma nel calcolo del rischio, anziché usare la relazione R = P x D, utilizzo:

R = P x D2.

Pensate alle classiche espressioni quali-quantitative che vengono utilizzate per determinare P… Tipicamente, P = 1 viene assegnato a (cito a memoria): «Non si sono mai verificati eventi simili. Il verificarsi dell’evento susciterebbe stupore…». In sostanza, nella maggior parte dei casi, chi utilizza questi criteri dovrebbe quasi sempre assegnare P = 1.

Valutando in modo non lineare il danno, invece, eventuali errori di valutazione determinati dall’impossibilità di assegnare valori esatti alla probabilità associata al verificarsi di un determinato evento (in particolare sottovalutazioni) verrebbero compensate, senza ricorrere al worst case.

Ho visto molti criteri di valutazione in questi anni per determinare il rischio: chi aggiunge nella relazione la formazione, chi i DPI, chi l’esperienza, ecc.

Tutti criteri ragionevoli, ma che, a mio modo di vedere, aumentano solo le variabili non perfettamente note che, nell’ambito di un processo decisionale possono portare a conclusioni errate sul da farsi.
Per questo, consapevole anche dei giganteschi limiti che esistono in questi processi epistemologici, io preferisco limitare al minimo gli elementi su cui concentrarmi.

La speranza, tuttavia, è che prima o poi potremo smettere di prenderci in giro con questi inutili giochetti, riprendendoci la nostra intelligenza del rischio.

Pubblicato in: cultura della sicurezza, incidenti, valutazione dei rischi

Una farfalla ci seppellirà

Nel 1684 E. Halley (sì, quello della cometa, tra le altre cose) andò a Cambridge per parlare con I. Newton (sì, quello delle leggi della dinamica, tra le altre cose) di una cosetta su cui si era fissato e quando ti fissi è brutto.

Tutto era iniziato una sera al pub. Halley e R. Hooke (sì, quello della legge sulla forza elastica, tra le altre cose) accettarono una scommessa su chi sarebbe stato il primo a trovare la legge matematica che descrive il moto dei pianeti intorno al sole (chi non fa scommesse del genere al pub con gli amici?) postulato da Keplero.

Hooke sosteneva di conoscere già la risposta, ma era quel tipo di amici ai quali devi sempre fare la tara di ciò che ti raccontano (ed infatti, non tira fuori la soluzione).

Siccome non riusciva a venirne a capo, Halley va a parlarne a Newton (ricorre cioè all’aiuto a casa… Di Newton), nella speranza che quello potesse dargli qualche dritta, un po’ di polvere puffa, suggerirgli una magicabula per vincere la scommessa e farsi il grosso con Hooke.

Qui viene il bello… inizia a parlarne a Newton e quello fa: «Ah sì, quella faccenda… L’ho risolta 5 anni fa! C’ho le carte qui, da qualche parte sulla scrivania!».

Newton aveva già risolto il problema del moto dei corpi in orbita (senza il quale oggi non avremmo le leggi della dinamica e quella di gravitazione universale, il calcolo infinitesimale e tante altre cosette utili), ma non avendo pubblicato nulla era come se tutto ciò non fosse mai accaduto (se non per Newton).

Facciamo un salto di quasi tre secoli. Siamo nel 2002 ad una conferenza stampa e il segretario della difesa statunitense D. Rumsfeld, alla domanda su legami tra governo iracheno e armi di distruzione di massa e terrorismo, risponde:

“Ci sono fatti noti conosciuti, le cose che sappiamo di sapere. Ci sono fatti ignoti conosciuti, vale a dire le cose che ora sappiamo di non sapere. Ma ci sono anche fatti ignoti sconosciuti, le cose che non sappiamo di non sapere.”

Considerando che l’Iraq non aveva armi di distruzione di massa, che lui lo sapeva e che doveva intortarla, per questa frase Rumsfeld ha vinto il premio Antani D’oro che la Fondazione Conte Mascetti assegna a chiunque riesca a giustificare una guerra con una supercazzola.

Ora, però, fermatevi un attimo a rileggere quello che ha detto Rumsfeld. Scoprirete che una bella fetta di epistemologia è racchiusa là dentro.

Per esempio, mentre per Halley la legge matematica che descriveva il moto delle orbite dei pianeti era un “fatto ignoto conosciuto” (cioè: «So cosa non so»), la stessa cosa non si poteva dire di Newton per il quale la medesima legge era un “fatto noto conosciuto” (cioè: «So cosa so»).

Quando facciamo una valutazione dei rischi, noi valutiamo solo i “fatti noti conosciuti”. Considerando che la maggioranza dei “fatti noti” è “conosciuta” ai più, non serve un vero esperto: quasi tutti sono in gradi di rendersi conto se c’è un rischio di caduta dall’alto o di natura meccanica o elettrica, ecc.

Una percentuale piuttosto elevata del lavoro di Consulente per la sicurezza lo potrebbe fare chiunque abbia un po’ di esperienza nel campo specifico in cui il consulente sta consigliando.

Le cose cambiano quando si supera il variabile confine dei “fatti noti conosciuti”.

Qui molte certezze vengono meno e si può cadere nelle sabbie mobili dei “fatti ignoti conosciuti” o risucchiati nel gorgo dei “fatti ignoti sconosciuti”. Eh già…

Quando ti trovi davanti ad una persona apparentemente inanimata all’interno di uno spazio confinato, o sai di non sapere o sei spacciato.

Ed in molti casi, purtroppo, è la seconda a prevalere: se non sai di non sapere, non farai nemmeno nulla per difenderti. I fatti ignoti sconosciuti sono semplicemente le domande che non sono ancora state poste. L’assenza totale di percezione (in molti casi) di rischi all’interno degli spazi confinati, accompagnata con la mancanza di conoscenza dei rischi propri degli spazi confinati è un esempio tipico di quello che fanno i “fatti ignoti sconosciuti”.

Chi invece sa di non sapere, idealmente si astiene dall’entrare nello spazio confinato, ma non sa che fare. E qui entriamo in gioco noi.

Infatti, quando si supera la soglia dei “fatti noti conosciuti”, quello è il momento in cui ci vuole l’esperto. L’esperto fa proprio questo di mestiere: incrementa l’area dei fatti noti conosciuti. È in grado di fare valutazioni dei rischi complesse; ha competenze che gli permettono di sapere che certe cose esistono e che devono essere tenute in considerazione; ha un bagagliaio pieno zeppo di soluzioni.

Qual è il problema? L’errore dell’esperto.

Quello che Rumsfeld non ha detto è che ci sono anche i “fatti noti sconosciuti” (cioè: «Non so ciò che so»). Secondo me sono i peggiori, perché sono i più comuni, quella che ci sono sempre e non si vedono praticamente mai, se non quando qualcosa ne appalesa l’esistenza.

La cosa brutta, brutta è che sbagliamo con rigore e serietà, dato che quella è la nostra materia, l’abbiamo studiata, ci hanno chiamato anche per quello… Un “fatto noto sconosciuto” non è altro che un “fatto noto conosciuto” in cui non siamo riusciti (per vari motivi) ad usare tutte le nostre risorse per risolvere il problema (pensate a tutti quei compiti in classe di fisica in cui conoscevate la teoria, avevate inquadrato il problema, ma che avete risolto in modo errato. Semplicemente perché non avete considerato un elemento minuscolo ma essenziale nella traccia del problema, ma non ne siete stati consapevoli finché non avete visto la correzione del professore).

Sono quei fatti che abbiamo sotto gli occhi, ma di cui non cogliamo la rilevanza. E non possiamo usare ciò che sappiamo se gli elementi che analizziamo ci appaiono irrilevanti e dunque vengono scartati.

Il guaio è che, quando ci si incappa, prima che ci si accorga del problema per noi quelli sono “fatti noti conosciuti” e li trattiamo come tali.

Come dico sempre nei miei corsi di formazione sulla valutazione dei rischi: «Quando guardate una scaffalatura alta, dovete chiedervi “Dov’è la scala che serve a raggiungere i ripiani più alti?”».

Volete esempi di “fatti noti sconosciuti”?

11 settembre 2001 (sì, quello dell’attentato): se tutti gli arei fossero stati dotati di cabine di pilotaggio protette da porte blindate, tutto quello che sappiamo di quell’evento non sarebbe mai avvenuto. Attentatori armati di taglierino non sarebbero mai potuti entrare nel cock-pit, sopprimere i piloti e prendere il comando degli aerei.

Immaginate un modello causale lineare tipo “domino”: con una misura così semplice e a basso costo, avreste impedito che l’attentato dell’11 settembre 2001 avvenisse con le modalità che conoscete, Rumsfeld non avrebbe detto quella frase, avreste evitato un paio di guerre in medio oriente e qualche centinaio di migliaio di morti.

Questo è il fantastico mondo dei modelli causali lineari: basta mettere una barriera e le tessere di domino a valle restano in piedi.

Tuttavia, 14 anni dopo aver evitato il più grave attentato della storia moderna (cosa di cui, però, nessuno vi avrebbe ringraziato, non essendo mai accaduto), il copilota di un aereo di linea in volo tra Barcellona e Dusseldorf avrebbe usato la vostra porta per suicidare sé stesso, portandosi dietro, già che c’era, le 150 persone che si trovavano a bordo.

Fin qui è facile: l’analisi retrospettiva (hindsight bias) fa apparire tutto prevedibile e prevenibile.

Lascio ai risolutori particolarmente abili il compito di dimostrare mediante congetture come il ricorso alla presenza contemporanea e costante di almeno due piloti nella cabina di pilotaggio, ovvero la misura posta a difesa del ripetersi di eventi come quello appena su narrato, generi nuovi scenari incidentali.

Benvenuti nel magico mondo delle complessità, nel quale ogni soluzione genera nuovi problemi, la ridondanza aumenta la complessità e non si possono valutare e impedire tutti i rischi, dove gli errori sono latenti, dove causa ed effetto non sono lineari ed in cui il battito d’ali delle farfalle è preso molto sul serio.

Ecco, in conclusione, quello che per me è un altro dei grossi problemi degli approcci basati sulle valutazioni dei rischi, ovvero sulla conoscenza: a fronte di un solo modo di funzionamento che garantisca il successo e che consiste nel valutare bene i fatti noti conosciuti, ne abbiamo ben altri tre che possono danneggiarci e nei confronti dei quali possiamo fare poco o nulla.

Una farfalla ci seppellirà.

Butterfly effect

 

Pubblicato in: cultura della sicurezza, incidenti, valutazione dei rischi

La normalità degli incidenti

In un precedente post ho cercato di rappresentare alcuni limiti dell’attuale approccio prevenzionistico basato sulla valutazione dei rischi.

Come sappiamo, l’uso di questo strumento è stato introdotto dai recepimenti delle direttive comunitarie di fine anni ’80 come misura complementare alla prevenzione/protezione di natura puramente tecnologica che, storicamente, dalla rivoluzione industriale in poi, ha rappresentato il paradigma stesso di “sicurezza”.

Questa faccenda della valutazione dei rischi nasce da studi iniziati nella seconda parte degli anni ’70 che avevano evidenziato come molti incidenti che, a prima vista, sembravano avere natura tecnologica, in realtà nascondevano anche (o soprattutto) tutta una serie di fallimenti, errori, omissioni a livello organizzativo.

Ciò che ha solleticato l’interesse del legislatore comunitario è l’apparente, ovvia conclusione che, dopo aver attuato le misure tecnologicamente fattibili, se valuti i rischi rimanenti e ti organizzi adeguatamente, è praticamente impossibile che qualcosa possa andar male (e se qualcosa va male è, ovviamente, perché hai eseguito male qualcuno dei passaggi precedenti).

Su queste premesse è costruito l’intero paradigma della sicurezza del D.Lgs. n. 81/2008.

Ora, io sostengo con forza che questo approccio è totalmente insufficiente, velleitario, platonico e ci sta facendo spendere un mucchio di energie e risorse.

Se guardiamo le statistiche INAIL, in particolare le serie storiche di dati dal 1951 al 2010[1], mostrano come dal 1994 (anno di introduzione del D.Lgs n. 626/1994) il numero degli infortuni mortali e non mortali sia sì lentamente decresciuto, ma seguendo una tendenza già abbondantemente avviata in precedenza.

2

1

Analogamente dal 2008 (anno di introduzione del D.Lgs. n. 81/2008) al 2015.

3

4

Occorre inoltre tenere conto che:

  • Questi numeri sono assoluti, mentre si sarebbe dovuto analizzare il tasso infortunistico sul numero di ore lavorate, ma l’INAIL non fornisce questo dato (e io un po’ mi rompo a incrociarlo con le statistiche ISTAT);
  • Dal 2008 al 2015 il numero di ore lavorate si è ridotto drasticamente a causa della crisi economica. L’INAIL stessa afferma che questo spiega in parte la riduzione del numero di infortuni degli ultimi anni;
  • Non c’è mica solo la normativa ad essersi evoluta dal 1951 ad oggi, eh… anche la tecnologia, la consapevolezza e la cultura hanno fatto passi da giganti e possono contribuire a spiegare il trend infortunistico.

A mio avviso, pur non potendo trarre conclusioni definitive, ci sono forti elementi di dubbio sull’efficacia di questo approccio come arma finale nella lotta al fenomeno degli infortuni sul lavoro.

La questione è che tutta ‘sta faccenda è nata già vecchia perché, mentre varavano la direttiva comunitaria, altri approcci teorici tendevano a smontare questa rappresentazione platonica del rischio il cui principale difetto è quello di non tenere conto della complessità dei sistemi.

Nel 1984 Charles Perrow disegnò la Normal Accidents Theory che, in sostanza, afferma che, eventi apparentemente stupidi e errori/fallimenti non critici possono a volte interagire tra loro in modi totalmente inattesi, fino a produrre disastri. Egli arriva ad affermare che, in sistemi particolarmente complessi, l’incidente è sostanzialmente inevitabile (da cui la denominazione di incidente “normale”).

C’è un famoso grafico che, in funzione di due parametri che Perrow considera cruciali (interazione e connessione), permette di sapere dove si colloca un’ipotetica organizzazione rispetto alla sempre maggiore ineluttabilità dell’incidente (angolo in alto a destra).

3-Perrow-from-Accidents-Normal

La faccenda è che anche questo grafico (risalente all’edizione del 1984) dovrebbe essere aggiornato alla complessità crescente di oltre 30 anni di evoluzione tecnologica e organizzativa.

Oggi qualunque linea e processo di produzione si è spostato verso l’alto e verso destra.

Un cantiere odierno è abbondantemente nel quadrante 2, oggi molto più che in passato.

Ciò che rende sempre più normali gli incidenti è la sempre minore comprensione del funzionamento delle cose e dei sistemi da parte di chi lavora e di chi organizza e ciò a causa dell’incremento della complessità tecnologica (compreso l’uso l’uso di software) e organizzativa che fanno sì che gli incidenti siano il prodotto di persone normali che fanno lavori normali in organizzazione normali.

A valle dell’incidente, al contrario, tutto sarà spiegato ricorrendo alla rappresentazione di eventi eccezionali prodotti da scorrette decisioni determinate da errate valutazioni dei rischi.

La verità è che, con un approccio di tipo riduzionista possiamo anche mettere in sicurezza le singole parti di un sistema, ma non è detto che il sistema nel suo complesso sarà sicuro, poiché non si possono studiare, a causa della complessità, le interazioni tra le parti. Insistere sulla necessità di eliminare o ridurre tutti i rischi attraverso la loro valutazione non renderà la realtà più semplice e gli incidenti meno inevitabili.

 

 

[1] Purtroppo l’INAIL, dal 2010 in poi, ha modificato la modalità di aggregazione dei dati, per cui i grafici dal 1951 al 2010 e quello dal 2008 al 2015 non possono essere comparati, nemmeno come tendenze di andamento, ma devono essere analizzati separatamente