ANA.R.CHIM. è ri-tornato!

WewillbefreeVi avevo già parlato di ANA.R.CHIM. (ANAlisi del Rischio CHIMico) spiegandone le qualità terapeutiche quando si tratta di fare valutazioni del rischio chimico.

Bene, oggi ricevo la telefonata di un’utente (c’è l’apostrofo perché era una donna) che, in preda a grande agitazione, senza nemmeno dirmi con chi stessi parlando, mi fa:

Un’utente (l’apostrofo ci vuole sempre per quella faccenda del femminile): «Ingegnere, mi scusi se la disturbo. Sto utilizzando ANA.R.CHIM. e ho qualche problema».
IO: «Suppongo vi sia un nesso di causalità tra le due cose. Succede… So di gente che, dopo aver scoperto ANA.R.CHIM., ora, tutte le volte che prova ad usare Movarisch, gli puzzano le ascelle di elicottero».
Un’utente: «No, il mio problema è che credo che nel file di ANA.R.CHIM. vi sia un errore».
IO: «Si rende conto di quello che sta dicendo?»
Un’utente: «Comprendo la gravità della situazione e mi assumo la responsabilità dell’accusa».

Un’utente mi invia dunque il file che aveva compilato con le indicazioni per comprendere dove fosse l’errore e, in effetti, aveva ragione.

Capisco immediatamente che l’unica via d’uscita per espiare la mia colpa è il seppuku e mi appresto ad eseguire il rituale.
La questione è complessa… Si tratta di praticarsi uno squarcio all’addome usando un wakizashi (che non possiedo). Il taglio deve essere eseguito da sinistra verso destra e poi verso l’alto mentre ci si trovava nella classica posizione giapponese detta seiza, cioè in ginocchio con le punte dei piedi rivolte all’indietro (in questo modo il corpo cade in avanti, come è previsto per certificare la morte onorevole).
Ho chiesto inoltre a mia moglie di essere la mia kaishakunin. In pratica, deve semplicemente decapitarmi quando sono ancora vivo, subito dopo che mi sia inferto la ferita mortale, con un colpo solo, prima che il dolore mi sfiguri il volto.

Anche se mia moglie insisteva per procedere in fretta che doveva preparare la cena, ho capito che tutta la faccenda richiedeva troppa sbatta… Scrivi un biglietto d’addio, recupera un wakizashi affilato, insegna a mia moglie come decapitarmi senza procurarmi sofferenze inutili con il coltello da cucina…

Ho quindi, più prosaicamente, ripiegato sulla correzione del foglio excel di ANA.R.CHIM. che, dunque, ora si aggiorna alla versione del 15 maggio 2018.

SI SCARICA DA QUA

N.B.: l’errore che ho corretto non pregiudica la validità delle valutazioni precedentemente effettuate.
Si trattava semplicemente di un refuso all’interno  cartella Val-INA che impediva di eseguire la valutazione quando si inserivano più di 100 sostanze pericolose.

 

Annunci

La soluzione definitiva al problema della sicurezza sui luoghi di lavoro

Hai speso mostrilioni di euro in formazione e-learning ma i lavoratori continuano a fare come gli pare?
Nonostante la valutazione dei rischi, fatta col migliore software in circolazione, dica che il rischio sia accettabile ovunque, i lavoratori si ostinano a farsi male?
Sei convinto che almeno l’88% degli incidenti sia legato ad azioni insicure?

Ho quello che fa per te: la BBBS®!

Baseball Bat Based Safety®

Testato in Italia nella prima metà del secolo scorso su oppositori politici, minoranze etniche e altre eccezioni, l’introduzione della BBBS® nella tua azienda unirà l’efficacia e il basso costo del metodo alla soddisfazione derivante dalla sua applicazione.

Efficacia
Una sola randellata ben assestata sulla schiena dice più di 16 ore di formazione conforme ai requisiti dell’Accordo Stato-Regioni.
Considerata l’evoluzione delle più classiche tecniche comportamentali, è scientificamente provato che la somministrazione di massimo 3 sedute di BBBS® modifica il 98% dei comportamenti indesiderati.

Basso costo
Consulenti superpagati, modelli organizzativi, organismi di vigilanza saranno solo un ricordo.
Con soli 49,00 € ti porti a casa tutto quello che serve per l’applicazione della BBBS® (offerta valida per un solo utilizzatore):

BBBS

Con l’acquisto di 10 unità avrai uno sconto del 10% e la possibilità di partecipare ad un corso di addestramento per la somministrazione efficace del metodo BBBS®.

Soddisfazione
Diciamoci la verità: la compilazione dei moduli per la denuncia dei near-miss è deprimente, ti passa la voglia di “fare” sicurezza.
Al contrario, l’applicazione della BBBS® crea dipendenza nel somministratore, grazie alla immediata produzione di adrenalina e serotonina che gratificano la tua funzione di educatore. Non potrai più farne a meno!

La sicurezza nella tua azienda è una questione di impugnatura.

Non esitare a contattarmi.


Questo post è dedicato a coloro i quali pensano che esistano soluzioni semplici a problemi complessi.

1° mito: valutazione dei rischi, l’arte di cucinare la pasta all’amatriciana senza guanciale

«Ciò che è stato sarà
e ciò che si è fatto si rifarà;
non c’è niente di nuovo sotto il sole»
Ecclesiaste 1:9 

A partire da questo post parlerò di quelli che considero i miti della sicurezza.

Il primo mito, di cui ho già scritto in vari post, risiede nella volontà del legislatore di considerare la valutazione dei rischi la pietra angolare dell’intero sistema prevenzionistico, l’amuleto che ci difenderà dallo spettro dell’infortunio, l’agnello che toglie i peccati dal mondo.

Per chi si fosse perso le ultime puntate, la ragione per cui considero tale pretesa un mito, deriva dalla banale osservazione che dietro la definizione di rischio si nasconde il concetto di probabilità e l’atto della valutazione consiste, ancor più banalmente, nel determinare se un evento possa accadere o meno e, se sì,  con quale probabilità.

Ecco, appunto… intervenire o non intervenire; prevenire o proteggere; agire in tempi rapidi o tempi lunghi… tutte queste decisioni dipendono dalla nostra valutazione, che dipende dalle probabilità, la quale discende dal possesso e dalla conoscenza di dati storici. Solo di dati storici. Nient’altro.

E, anche ammesso che si abbiano questi dati, nulla si può dire rispetto a ciò che non ha precedenti.

Te lo dice anche l’Antico Testamento, nell’Ecclesiaste, di cui ho riportato un estratto all’inizio di questo post (sì, l’Ecclesiaste è quella roba di «C’è un tempo per nascere e un tempo per morire, ecc.»): tutto quello che accade è già accaduto in passato.

Sapevatelo!

Il problema è infatti questo: non abbiamo dati. Puoi raccogliere tutti i “near miss” che ti pare, continuerai a non avere dati. Nel mondo reale è così.

Così ci ritroviamo una norma che ci impone di fare una valutazione dei rischi e ci dà una definizione di rischio che discende dal concetto di probabilità ma, pur con tutto l’impegno di questo mondo, manca l’ingrediente fondamentale: la conoscenza della probabilità.

Fattela te la pasta all’amatriciana senza guanciale.

Ma se venissi autorizzato ad usare la salsiccia, mi dico:

  1. Mi hanno chiesto di fare pasta all’amatriciana
  2. Non ho guanciale, solo salsiccia,
  3. Questi qui non hanno precedenti; non hanno mai mangiato pasta all’amatriciana,
  4. la salsiccia, in fondo, sempre maiale è,
  5. il protocollo europeo della pasta all’amatriciana consente di sostituire il guanciale con la salsiccia, anche se il guanciale è fortemente consigliato,
  6. ci metto molto pecorino e così la butto in caciara,

alla fine la maggior parte non si lamenta, anzi si abitua a quel gusto.

Perché questo è quello che succede nella realtà di tutti i giorni: la valutazione dei rischi che viene servita non è nient’altro che un mito, un piatto la cui ricetta è stata stravolta secondo le attitudini soggettive del cuoco a causa della carenza di ingredienti. È come il parmisan venduto in Olanda, la mozzarella che si mangiano in Inghilterra, il vino in polvere bevuto in Finlandia. Sono dei miti, delle credenze credibili. Ti danno l’illusione di stare mangiando il prodotto originale, mentre invece ti stai nutrendo della sua narrazione, del racconto di ciò che è il concetto di parmigiano, mozzarella o vino.

La P inserita nel calcolo PxD del rischio è salsiccia, non è guanciale. La valutazione del rischio, non è amatriciana ma pasta con la salsiccia ed il pecorino.

Chi è che alimenta il mito?

  1. La comunità europea e gli stati membri che basano tutto il sistema prevenzionistico sulla valutazione del rischio (no, non sono favorevole all’uscita dalla UE);
  2. Modelli teorici come la “Domino theory” di Heinrich o il “Swiss Cheese Model” di Reason che, utilizzati a valle di un incidente per la sua analisi, generano questa strana impressione di linearità tra causa ed effetto che rende tutto prevedibile e, conseguentemente, prevenibile;
  3. La rarità degli incidenti e l’impossibilità di affermare con certezza se essi non accadono perché noi stiamo impedendo che accadano o se, semplicemente, non accadono per i fatti loro;

Su queste basi, io posso affermare di essere il maggior esperto al mondo in fatto di terremoti. Ho, tra l’altro, scoperto un metodo che mi consente di sapere, con un giorno di anticipo, se ci sarà o meno un terremoto di grado superiore al 6° della scala Richter. Tranquilli, oggi non ci sarà nessun terremoto 🙂

Se il mio racconto fosse sufficientemente credibile, se io fossi sufficientemente credibile grazie al pubblico riconoscimento delle autorità circa la validità del mio metodo, le mie valutazioni lo sarebbero altrettanto. Molto probabilmente, in effetti, il 1° giorno il terremoto non accadrebbe. E nemmeno il 2°, il 3° e così via…

La credibilità circa la prevedibilità dei terremoti, si autoalimenterebbe. Proseguendo la narrazione, potrebbero passare anni prima del verificarsi di un terremoto di grado superiore alla mia soglia di rilevabilità.

Se dovesse accadere, è inutile che ve la prendiate con me: io, in realtà, ho avuto ragione il 99% del tempo.

E infatti, praticamente nessuno si lamenta dell’amatriciana con la salsiccia.

 

Scommetto 1€ sull’esistenza di Dio

La teoria delle probabilità risale alla seconda metà del XVI secolo.

Ora, questa è una roba che, tutte le volte che ci penso, mi manda in pappa il cervello: prima di quest’epoca le persone non assegnavano un senso matematico alle possibilità che accadesse una cosa anziché un’altra.

Lanciavano un dado a 6 facce? Non si ponevano proprio il problema che ogni faccia avesse una probabilità di uscire pari a 1/6. No, erano gli dei (o Dio) a determinare esito, frequenza degli esiti e tutto il resto. Non intuivano che dietro c’era una matematica e che tale matematica era particolarmente interessante da conoscere quando i possibili eventi non erano equiprobabili. Semplicemente non ci pensavano. Pazzesco, eh?

La tradizione fa a risalire a Pascal la nascita del concetto di probabilità. A Pascal era stato posto un quesito da un giocatore d’azzardo che cercava un modo per vincere matematicamente ai dadi. Stavano viaggiando in carrozza e quello lì gli fa: «Ho tirato il dado 4 volte e mi è uscito un 6. Questo significa che, se gioco con due dadi, su 24 tiri mi deve uscire un doppio 6. Monsieur Pascal è matematica e, come lei mi insegna, la matematica non è un’opinione. E invece non succede… I dadi sono truccati?».

Il ragionamento non fa una piega!

Ma in effetti, anche Pascal (ed era Pascal, eh… Uno di cui hanno calcolato dovesse avere un quoziente intellettivo di 185!)  lì per lì non riesce a trovare una risposta e allora che fa? Scrive a Fermat una lettera che, più o meno, doveva suonare così:

«Caro Fermat,
come stai? Qui tutto bene. Hai visto il mio ultimo teorema? Stai a rosica’, eh?
Non te la prendere, sto scherzando: permalosone! (N.d.R. ancora non avevano inventato le emoticon e dovevano stare molto attenti a quello che scrivevano).
Senti un po’… ho avuto un’ideuzza che potrebbe farci diventare ricchi… Si tratta di risolvere un problemino semplice, semplice e in due ce la possiamo fare: secondo te, quante volte devo lanciare due dadi per essere sicuro che esca un doppio 6?

Ah, Ferma’… Quando scrivi i teoremi, ricordati di metterci anche la dimostrazione…
Cordialmente, tuo Blaise».

A forza di scambiarsi lettere con Fermat, Pascal alla fine trova la soluzione e mette su le basi della teoria delle probabilità.

E grazie a Pascal (e Fermat) possiamo, oggi, parlare di rischio come di una funzione associata a probabilità e gravità. Pensate a come sarebbe stata la definizione di rischio all’art. 2, comma 1, lett. s) del D.Lgs. n. 81/2008 senza il contributo di Pascal: «esito di una punizione divina che si manifesta in forma di raggiungimento del livello potenziale di danno per una persona».

In tre precedenti post (primo, secondo e terzo) ho cercato, comunque, di rappresentare come provare a fare valutazioni di rischi non misurabili – perché non se ne conosce la probabilità reale del loro manifestarsi – sia velleitario: nel mondo reale fare una valutazione dei rischi basandosi sulle probabilità è come scommettere sugli esiti di un dado truccato.

Persino nel dominio dei «fatti noti conosciuti», quello nel quale sappiamo cosa può accadere, non abbiamo valori di probabilità da associare ai vari esiti.

Come uscirne? In effetti non se ne esce, ma possiamo provare a darci un metodo per migliorare l’approccio…

La questione deve essere spostata dall’idea di poter fare una previsione della probabilità che un evento accada, alle decisioni da prendere quando si ipotizza che qualcosa possa accadere (i fatti noti conosciuti) o quando non si hanno sufficienti elementi su come stiano le cose (fatti ignoti conosciuti).

Uso sempre Pascal per spiegare il ragionamento, rifacendomi alla sua scommessa sull’esistenza di Dio (nota come «scommessa di Pascal»).

Per un agnostico, l’esistenza di Dio è un fatto ignoto conosciuto: sa di non sapere se Dio esista o meno e sa di non poterne dimostrare l’esistenza o il contrario, sospendendo il giudizio. Pascal gli dice (la mia versione moderna):

«Agno’, ma perché ti fai ‘sti problemi? Pensa alla salute… Scusa eh, supponi che Dio esista: che ti costa? Sì, per qualche decina di anni dovrai andare a messa tutte le domeniche, il venerdì non dovrai mangiare carne, ecc. ecc. Sono d’accordo, potrebbe essere una bella rottura. Se Dio non esistesse avresti perso un bel po’ di tempo inutilmente. In compenso, se Dio poco, poco esiste, c’hai guadagnato la vita eterna e neanche immagini che vita fanno lassù… altro che atti impuri…
Vedi agno’, la faccenda non è tanto se non credi e Dio non esiste: al massimo c’avrai guadagnato qualche bistecca il venerdì e ti sarai potuto ammazzare di atti impuri nel corso della tua vita (ok, non è poco).
Quello su cui devi ragionare è il worst case, il caso peggiore: Dio esiste, ma tu non c’hai creduto. Secondo te, Lui come  la vede la faccenda che tu abbia passato questi decenni ignorandolo, frequentando donnacce e votando comunista? Lo sai com’è fatto: come minimo ti schianta all’inferno senza pensarci due volte, nel braccio dei diavoli sodomizzatori e degli antivaccinisti».

In questo ragionamento (un po’ tirato, a dir la verità, ma che comunque ha buttato le basi della teoria dell’utilità attesa), Pascal ha completamente tolto dalle variabili la faccenda del calcolo delle probabilità di eventi di cui non si possono calcolare le probabilità, limitandosi a valutare le conseguenze.

Noi possiamo anche non sapere quali possano essere le probabilità del verificarsi di un dato evento negativo, ma siamo piuttosto bravini a ipotizzare le possibili conseguenze. In effetti, però, il problema è che anche le conseguenze possono essere molteplici e non è che uno possa sempre riferirsi al worst case, perché i costi sarebbero insostenibili.

Per andare incontro alle richieste del legislatore, che ci impone di fare comunque una valutazione dei rischi, possiamo allora provare a dare più peso alla nostra capacità di immaginare le conseguenze (che in linea di massima sono note e immaginabili), che associare delle probabilità (che ignoriamo completamente), senza affidarsi necessariamente al caso peggiore.

Da qualche anno a questa parte utilizzo una classica matrice 4 x 4 (come quella che praticamente tutti usano nei loro DVR), ma nel calcolo del rischio, anziché usare la relazione R = P x D, utilizzo:

R = P x D2.

Pensate alle classiche espressioni quali-quantitative che vengono utilizzate per determinare P… Tipicamente, P = 1 viene assegnato a (cito a memoria): «Non si sono mai verificati eventi simili. Il verificarsi dell’evento susciterebbe stupore…». In sostanza, nella maggior parte dei casi, chi utilizza questi criteri dovrebbe quasi sempre assegnare P = 1.

Valutando in modo non lineare il danno, invece, eventuali errori di valutazione determinati dall’impossibilità di assegnare valori esatti alla probabilità associata al verificarsi di un determinato evento (in particolare sottovalutazioni) verrebbero compensate, senza ricorrere al worst case.

Ho visto molti criteri di valutazione in questi anni per determinare il rischio: chi aggiunge nella relazione la formazione, chi i DPI, chi l’esperienza, ecc.

Tutti criteri ragionevoli, ma che, a mio modo di vedere, aumentano solo le variabili non perfettamente note che, nell’ambito di un processo decisionale possono portare a conclusioni errate sul da farsi.
Per questo, consapevole anche dei giganteschi limiti che esistono in questi processi epistemologici, io preferisco limitare al minimo gli elementi su cui concentrarmi.

La speranza, tuttavia, è che prima o poi potremo smettere di prenderci in giro con questi inutili giochetti, riprendendoci la nostra intelligenza del rischio.

Una farfalla ci seppellirà

Nel 1684 E. Halley (sì, quello della cometa, tra le altre cose) andò a Cambridge per parlare con I. Newton (sì, quello delle leggi della dinamica, tra le altre cose) di una cosetta su cui si era fissato e quando ti fissi è brutto.

Tutto era iniziato una sera al pub. Halley e R. Hooke (sì, quello della legge sulla forza elastica, tra le altre cose) accettarono una scommessa su chi sarebbe stato il primo a trovare la legge matematica che descrive il moto dei pianeti intorno al sole (chi non fa scommesse del genere al pub con gli amici?) postulato da Keplero.

Hooke sosteneva di conoscere già la risposta, ma era quel tipo di amici ai quali devi sempre fare la tara di ciò che ti raccontano (ed infatti, non tira fuori la soluzione).

Siccome non riusciva a venirne a capo, Halley va a parlarne a Newton (ricorre cioè all’aiuto a casa… Di Newton), nella speranza che quello potesse dargli qualche dritta, un po’ di polvere puffa, suggerirgli una magicabula per vincere la scommessa e farsi il grosso con Hooke.

Qui viene il bello… inizia a parlarne a Newton e quello fa: «Ah sì, quella faccenda… L’ho risolta 5 anni fa! C’ho le carte qui, da qualche parte sulla scrivania!».

Newton aveva già risolto il problema del moto dei corpi in orbita (senza il quale oggi non avremmo le leggi della dinamica e quella di gravitazione universale, il calcolo infinitesimale e tante altre cosette utili), ma non avendo pubblicato nulla era come se tutto ciò non fosse mai accaduto (se non per Newton).

Facciamo un salto di quasi tre secoli. Siamo nel 2002 ad una conferenza stampa e il segretario della difesa statunitense D. Rumsfeld, alla domanda su legami tra governo iracheno e armi di distruzione di massa e terrorismo, risponde:

“Ci sono fatti noti conosciuti, le cose che sappiamo di sapere. Ci sono fatti ignoti conosciuti, vale a dire le cose che ora sappiamo di non sapere. Ma ci sono anche fatti ignoti sconosciuti, le cose che non sappiamo di non sapere.”

Considerando che l’Iraq non aveva armi di distruzione di massa, che lui lo sapeva e che doveva intortarla, per questa frase Rumsfeld ha vinto il premio Antani D’oro che la Fondazione Conte Mascetti assegna a chiunque riesca a giustificare una guerra con una supercazzola.

Ora, però, fermatevi un attimo a rileggere quello che ha detto Rumsfeld. Scoprirete che una bella fetta di epistemologia è racchiusa là dentro.

Per esempio, mentre per Halley la legge matematica che descriveva il moto delle orbite dei pianeti era un “fatto ignoto conosciuto” (cioè: «So cosa non so»), la stessa cosa non si poteva dire di Newton per il quale la medesima legge era un “fatto noto conosciuto” (cioè: «So cosa so»).

Quando facciamo una valutazione dei rischi, noi valutiamo solo i “fatti noti conosciuti”. Considerando che la maggioranza dei “fatti noti” è “conosciuta” ai più, non serve un vero esperto: quasi tutti sono in gradi di rendersi conto se c’è un rischio di caduta dall’alto o di natura meccanica o elettrica, ecc.

Una percentuale piuttosto elevata del lavoro di Consulente per la sicurezza lo potrebbe fare chiunque abbia un po’ di esperienza nel campo specifico in cui il consulente sta consigliando.

Le cose cambiano quando si supera il variabile confine dei “fatti noti conosciuti”.

Qui molte certezze vengono meno e si può cadere nelle sabbie mobili dei “fatti ignoti conosciuti” o risucchiati nel gorgo dei “fatti ignoti sconosciuti”. Eh già…

Quando ti trovi davanti ad una persona apparentemente inanimata all’interno di uno spazio confinato, o sai di non sapere o sei spacciato.

Ed in molti casi, purtroppo, è la seconda a prevalere: se non sai di non sapere, non farai nemmeno nulla per difenderti. I fatti ignoti sconosciuti sono semplicemente le domande che non sono ancora state poste. L’assenza totale di percezione (in molti casi) di rischi all’interno degli spazi confinati, accompagnata con la mancanza di conoscenza dei rischi propri degli spazi confinati è un esempio tipico di quello che fanno i “fatti ignoti sconosciuti”.

Chi invece sa di non sapere, idealmente si astiene dall’entrare nello spazio confinato, ma non sa che fare. E qui entriamo in gioco noi.

Infatti, quando si supera la soglia dei “fatti noti conosciuti”, quello è il momento in cui ci vuole l’esperto. L’esperto fa proprio questo di mestiere: incrementa l’area dei fatti noti conosciuti. È in grado di fare valutazioni dei rischi complesse; ha competenze che gli permettono di sapere che certe cose esistono e che devono essere tenute in considerazione; ha un bagagliaio pieno zeppo di soluzioni.

Qual è il problema? L’errore dell’esperto.

Quello che Rumsfeld non ha detto è che ci sono anche i “fatti noti sconosciuti” (cioè: «Non so ciò che so»). Secondo me sono i peggiori, perché sono i più comuni, quella che ci sono sempre e non si vedono praticamente mai, se non quando qualcosa ne appalesa l’esistenza.

La cosa brutta, brutta è che sbagliamo con rigore e serietà, dato che quella è la nostra materia, l’abbiamo studiata, ci hanno chiamato anche per quello… Un “fatto noto sconosciuto” non è altro che un “fatto noto conosciuto” in cui non siamo riusciti (per vari motivi) ad usare tutte le nostre risorse per risolvere il problema (pensate a tutti quei compiti in classe di fisica in cui conoscevate la teoria, avevate inquadrato il problema, ma che avete risolto in modo errato. Semplicemente perché non avete considerato un elemento minuscolo ma essenziale nella traccia del problema, ma non ne siete stati consapevoli finché non avete visto la correzione del professore).

Sono quei fatti che abbiamo sotto gli occhi, ma di cui non cogliamo la rilevanza. E non possiamo usare ciò che sappiamo se gli elementi che analizziamo ci appaiono irrilevanti e dunque vengono scartati.

Il guaio è che, quando ci si incappa, prima che ci si accorga del problema per noi quelli sono “fatti noti conosciuti” e li trattiamo come tali.

Come dico sempre nei miei corsi di formazione sulla valutazione dei rischi: «Quando guardate una scaffalatura alta, dovete chiedervi “Dov’è la scala che serve a raggiungere i ripiani più alti?”».

Volete esempi di “fatti noti sconosciuti”?

11 settembre 2001 (sì, quello dell’attentato): se tutti gli arei fossero stati dotati di cabine di pilotaggio protette da porte blindate, tutto quello che sappiamo di quell’evento non sarebbe mai avvenuto. Attentatori armati di taglierino non sarebbero mai potuti entrare nel cock-pit, sopprimere i piloti e prendere il comando degli aerei.

Immaginate un modello causale lineare tipo “domino”: con una misura così semplice e a basso costo, avreste impedito che l’attentato dell’11 settembre 2001 avvenisse con le modalità che conoscete, Rumsfeld non avrebbe detto quella frase, avreste evitato un paio di guerre in medio oriente e qualche centinaio di migliaio di morti.

Questo è il fantastico mondo dei modelli causali lineari: basta mettere una barriera e le tessere di domino a valle restano in piedi.

Tuttavia, 14 anni dopo aver evitato il più grave attentato della storia moderna (cosa di cui, però, nessuno vi avrebbe ringraziato, non essendo mai accaduto), il copilota di un aereo di linea in volo tra Barcellona e Dusseldorf avrebbe usato la vostra porta per suicidare sé stesso, portandosi dietro, già che c’era, le 150 persone che si trovavano a bordo.

Fin qui è facile: l’analisi retrospettiva (hindsight bias) fa apparire tutto prevedibile e prevenibile.

Lascio ai risolutori particolarmente abili il compito di dimostrare mediante congetture come il ricorso alla presenza contemporanea e costante di almeno due piloti nella cabina di pilotaggio, ovvero la misura posta a difesa del ripetersi di eventi come quello appena su narrato, generi nuovi scenari incidentali.

Benvenuti nel magico mondo delle complessità, nel quale ogni soluzione genera nuovi problemi, la ridondanza aumenta la complessità e non si possono valutare e impedire tutti i rischi, dove gli errori sono latenti, dove causa ed effetto non sono lineari ed in cui il battito d’ali delle farfalle è preso molto sul serio.

Ecco, in conclusione, quello che per me è un altro dei grossi problemi degli approcci basati sulle valutazioni dei rischi, ovvero sulla conoscenza: a fronte di un solo modo di funzionamento che garantisca il successo e che consiste nel valutare bene i fatti noti conosciuti, ne abbiamo ben altri tre che possono danneggiarci e nei confronti dei quali possiamo fare poco o nulla.

Una farfalla ci seppellirà.

Butterfly effect

 

La normalità degli incidenti

In un precedente post ho cercato di rappresentare alcuni limiti dell’attuale approccio prevenzionistico basato sulla valutazione dei rischi.

Come sappiamo, l’uso di questo strumento è stato introdotto dai recepimenti delle direttive comunitarie di fine anni ’80 come misura complementare alla prevenzione/protezione di natura puramente tecnologica che, storicamente, dalla rivoluzione industriale in poi, ha rappresentato il paradigma stesso di “sicurezza”.

Questa faccenda della valutazione dei rischi nasce da studi iniziati nella seconda parte degli anni ’70 che avevano evidenziato come molti incidenti che, a prima vista, sembravano avere natura tecnologica, in realtà nascondevano anche (o soprattutto) tutta una serie di fallimenti, errori, omissioni a livello organizzativo.

Ciò che ha solleticato l’interesse del legislatore comunitario è l’apparente, ovvia conclusione che, dopo aver attuato le misure tecnologicamente fattibili, se valuti i rischi rimanenti e ti organizzi adeguatamente, è praticamente impossibile che qualcosa possa andar male (e se qualcosa va male è, ovviamente, perché hai eseguito male qualcuno dei passaggi precedenti).

Su queste premesse è costruito l’intero paradigma della sicurezza del D.Lgs. n. 81/2008.

Ora, io sostengo con forza che questo approccio è totalmente insufficiente, velleitario, platonico e ci sta facendo spendere un mucchio di energie e risorse.

Se guardiamo le statistiche INAIL, in particolare le serie storiche di dati dal 1951 al 2010[1], mostrano come dal 1994 (anno di introduzione del D.Lgs n. 626/1994) il numero degli infortuni mortali e non mortali sia sì lentamente decresciuto, ma seguendo una tendenza già abbondantemente avviata in precedenza.

2

1

Analogamente dal 2008 (anno di introduzione del D.Lgs. n. 81/2008) al 2015.

3

4

Occorre inoltre tenere conto che:

  • Questi numeri sono assoluti, mentre si sarebbe dovuto analizzare il tasso infortunistico sul numero di ore lavorate, ma l’INAIL non fornisce questo dato (e io un po’ mi rompo a incrociarlo con le statistiche ISTAT);
  • Dal 2008 al 2015 il numero di ore lavorate si è ridotto drasticamente a causa della crisi economica. L’INAIL stessa afferma che questo spiega in parte la riduzione del numero di infortuni degli ultimi anni;
  • Non c’è mica solo la normativa ad essersi evoluta dal 1951 ad oggi, eh… anche la tecnologia, la consapevolezza e la cultura hanno fatto passi da giganti e possono contribuire a spiegare il trend infortunistico.

A mio avviso, pur non potendo trarre conclusioni definitive, ci sono forti elementi di dubbio sull’efficacia di questo approccio come arma finale nella lotta al fenomeno degli infortuni sul lavoro.

La questione è che tutta ‘sta faccenda è nata già vecchia perché, mentre varavano la direttiva comunitaria, altri approcci teorici tendevano a smontare questa rappresentazione platonica del rischio il cui principale difetto è quello di non tenere conto della complessità dei sistemi.

Nel 1984 Charles Perrow disegnò la Normal Accidents Theory che, in sostanza, afferma che, eventi apparentemente stupidi e errori/fallimenti non critici possono a volte interagire tra loro in modi totalmente inattesi, fino a produrre disastri. Egli arriva ad affermare che, in sistemi particolarmente complessi, l’incidente è sostanzialmente inevitabile (da cui la denominazione di incidente “normale”).

C’è un famoso grafico che, in funzione di due parametri che Perrow considera cruciali (interazione e connessione), permette di sapere dove si colloca un’ipotetica organizzazione rispetto alla sempre maggiore ineluttabilità dell’incidente (angolo in alto a destra).

3-Perrow-from-Accidents-Normal

La faccenda è che anche questo grafico (risalente all’edizione del 1984) dovrebbe essere aggiornato alla complessità crescente di oltre 30 anni di evoluzione tecnologica e organizzativa.

Oggi qualunque linea e processo di produzione si è spostato verso l’alto e verso destra.

Un cantiere odierno è abbondantemente nel quadrante 2, oggi molto più che in passato.

Ciò che rende sempre più normali gli incidenti è la sempre minore comprensione del funzionamento delle cose e dei sistemi da parte di chi lavora e di chi organizza e ciò a causa dell’incremento della complessità tecnologica (compreso l’uso l’uso di software) e organizzativa che fanno sì che gli incidenti siano il prodotto di persone normali che fanno lavori normali in organizzazione normali.

A valle dell’incidente, al contrario, tutto sarà spiegato ricorrendo alla rappresentazione di eventi eccezionali prodotti da scorrette decisioni determinate da errate valutazioni dei rischi.

La verità è che, con un approccio di tipo riduzionista possiamo anche mettere in sicurezza le singole parti di un sistema, ma non è detto che il sistema nel suo complesso sarà sicuro, poiché non si possono studiare, a causa della complessità, le interazioni tra le parti. Insistere sulla necessità di eliminare o ridurre tutti i rischi attraverso la loro valutazione non renderà la realtà più semplice e gli incidenti meno inevitabili.

 

 

[1] Purtroppo l’INAIL, dal 2010 in poi, ha modificato la modalità di aggregazione dei dati, per cui i grafici dal 1951 al 2010 e quello dal 2008 al 2015 non possono essere comparati, nemmeno come tendenze di andamento, ma devono essere analizzati separatamente

ANA.R.CHIM. è tornato!

Sono lieto di annunciare un ulteriore aggiornamento di ANA.R.CHIM. (ANAlisi del Rischio CHIMico).

Si può scaricare da QUI [nota 1].

Edit: la versione attualmente scaricabile è quella del 15 maggio 2018. Se siete in possesso di una versione precedente, fate un nuovo download.

Probabilmente molti di voi non avranno mai sentito parlare di questo strumento, ma anche questo rientra nella sua essenza “underground”.

Ho iniziato a lavorare su ANARCHIM nel 2009… All’epoca mi stavo cimentando nell’esegesi del testo di “Papaveri e papere”, convinto che Nilla Pizzi vi avesse inserito all’interno tracce che permettessero di interpretare in modo differente la meccanica quantistica (non so se anche voi riuscite ad apprezzare la similitudine tra la dicotomia “papavero-papera” ed il duplice stato “gatto vivo-gatto morto” del paradosso di Schrödinger…) e, per mantenere costantemente elevato il livello di concentrazione, ho abusato di stecche di Toblerone, fino a contrarre una forte dipendenza.

Giunta l’estate, il Toblerone era diventato irreperibile e, per procurarmi nuove dosi della cioccolatosa droga svizzera, mi addentrai nei meandri oscuri del Dark Web, dove mi era stato detto che avrei potuto trovare partite scadute messe in vendita da spacciatori senza scrupoli.

Fu durante una di queste incursioni che mi imbattei in una serie di voci e leggende che parlavano dell’esistenza di una metodologia francese in grado di supportare la valutazione del rischio chimico. Roba forte… Si diceva che leggere la metodologia senza un’adeguata preparazione mentale conducesse alla pazzia ed, in alcuni casi, al prurito alle dita dei piedi (che ti fa diventare ancora più pazzo, se ci pensi… Immagina di non poterti grattare tutto l’inverno perché indossi le scarpe e le calze).

Non voglio entrare nei dettagli di come ci sono riuscito (dopo dovrei uccidervi), ma infine sono entrato in possesso di una copia originale della metodologia e del foglio di calcolo che, prontamente, tradussi, dopo averne disinnescato il potenziale di danno per i non iniziati.

ANARCHIM è la mia traduzione del foglio di calcolo sviluppato dal CRAM (Caisse Regional d’Assurance Maladie) di Alsace-Moselle basato sulla metodologia semplificata di valutazione del rischio chimico contenuta nella nota ND 2233-200-05 dell’INRS (Institut National de Recherche et de Sécurité)[nota 2].

All’epoca, anche per garantire l’anonimato, resi disponibile il foglio di calcolo e i suoi successivi aggiornamenti alla community del forum di Sicurezzaonline con il mio username storico di “ursamaior” (sì, sono io). Oggi, dopo Assange e Snowden, anch’io voglio uscire allo scoperto: tutti hanno il diritto di sapere!

Wewillbefree

L’aspetto interessante di questa metodologia, consiste nel fatto che l’algoritmo permette non solo di valutare il rischio chimico per la salute, ma anche (e direi soprattutto) di “gerarchizzare” il rischio.

No, non si tratta semplicemente di mettere in ordine di pericolosità gli agenti chimici sulla base di un indice di rischio calcolato sostanza per sostanza: per questo potete usare altri metodi. Quello che fa ANARCHIM è tenere conto delle quantità reciproche dei vari agenti chimici, per cui, ad esempio, una sostanza poco pericolosa ma presente in grandi quantità, potrebbe essere valutata più rilevante in termini di rischio sistemico di un’altra più pericolosa, ma usata molto meno o presente in piccole quantità.

Tutto ciò è interessante in quanto la gerarchizzazione finale e un’analisi ponderata, da parte del valutatore, dei risultati, permettono di sapere su quali sostanze/miscele concentrarsi per abbattere il rischio, prevedendo anche di quanto si abbatterà l’indice complessivo di rischio.

Altri punti di forza, brevemente elencati di seguito, di questa metodologia:

  • Permette di eseguire la valutazione anche di sostanze/miscele non classificate, basandosi sui TLV o, in subordine, sui pittogrammi di rischio;
  • Permette di valutare anche una serie di agenti chimici di processo (es. fumi di saldatura, rifiuti industriali, polveri, ecc.) per i quali è noto un TLV;
  • Esegue una prima gerarchizzazione anche per il rischio incendio e il rischio ambientale;
  • Tiene conto di una serie di mezzi di protezione collettiva (es, cappa, tavolo aspirante, cabina orizzontale o verticale, ecc.);
  • È tanto più precisa, sotto il profilo della gerarchizzazione, quanto maggiore è il numero di sostanze/miscele inserite

Veniamo ai punti deboli:

  • Il valutatore: deve sapere quello che fa. ANARCHIM è una semplice calcolatrice (come ho tenuto a precisare nella presentazione: «L’intelligenza ognuno se la deve conquistare, soltanto la stupidità si espande gratuitamente»;
  • Il valutatore: deve sapere quello che fa.
  • Ho già detto che il valutatore deve sapere quello che fa?

Nel foglio di calcolo ho inserito una guida per l’utilizzo e in alcune celle del medesimo troverete un triangolino rosso, posizionandovi sul quale, uscirà un popup di commento.

In quest’ultima versione ho portato a 1000 le linee del foglio di calcolo, per cui si possono inserire fino a 1000 sostanze/miscele: era una richiesta che mi era stata fatta da più parti.

Ho inoltre reso di default l’uso dell’etichettatura basata sul CLP, così da risparmiare tempo.

Molti altri bug del foglio di calcolo sono stati corretti nel tempo grazie alle segnalazioni di vari utenti.

Per qualunque richiesta (ragionevole e accompagnata da stecche di Toblerone), sono qua…

[1] Per far funzionare il file dovrete attivare le macro. Il vostro sistema operativo farà di tutto per sconsigliarvelo, minacciando virus, epidemie e invasioni di cavallette. Se avete dei dubbi in merito alla sicurezza del file, datelo in pasto al vostro antivirus preliminarmente, in modo da verificare che sia pulito.

[2] Questo è vero: la metodologia originale la trovate QUI. Negli anni, tutte le modifiche effettuate al foglio di calcolo, non hanno assolutamente interessato l’aspetto metodologico che, dunque, è assolutamente rispettato e coerente.