Pubblicato in: incidenti, valutazione dei rischi

Facciamo un piccolo test…

Studiamo sempre gli incidenti dopo che sono avvenuti.

Proviamo a mettere alla prova le nostre capacità deduttive. Non abbiate paura, è una cosetta semplice, semplice…

Questo il testo:

Un lavoratore, con mansione di magazziniere, esperto della propria mansione, viene trasportato al pronto soccorso a seguito di un grave incidente.
Quale tra i seguenti scenari ne è stata la causa probabile?

  1. Un pallet, correttamente collocato, cadde da una scaffalatura ferendo gravemente il lavoratore;
  2. A causa di un errore di manovra, un carrello elevatore urtò accidentalmente la scaffalatura, determinando la caduta di un pallet, correttamente collocato, che ferì gravemente il lavoratore.

Sarebbe bello se inseriste la risposta nei commenti al post ma, nel caso, per favore, non indicate anche i vostri ragionamenti per non influenzare gli altri partecipanti. È sufficiente scrivere 1 o 2.

Tra qualche giorno vi dirò come la vedo io 🙂

 

Pubblicato in: cultura della sicurezza, incidenti

Scommetto 1€ sull’esistenza di Dio

La teoria delle probabilità risale alla seconda metà del XVI secolo.

Ora, questa è una roba che, tutte le volte che ci penso, mi manda in pappa il cervello: prima di quest’epoca le persone non assegnavano un senso matematico alle possibilità che accadesse una cosa anziché un’altra.

Lanciavano un dado a 6 facce? Non si ponevano proprio il problema che ogni faccia avesse una probabilità di uscire pari a 1/6. No, erano gli dei (o Dio) a determinare esito, frequenza degli esiti e tutto il resto. Non intuivano che dietro c’era una matematica e che tale matematica era particolarmente interessante da conoscere quando i possibili eventi non erano equiprobabili. Semplicemente non ci pensavano. Pazzesco, eh?

La tradizione fa a risalire a Pascal la nascita del concetto di probabilità. A Pascal era stato posto un quesito da un giocatore d’azzardo che cercava un modo per vincere matematicamente ai dadi. Stavano viaggiando in carrozza e quello lì gli fa: «Ho tirato il dado 4 volte e mi è uscito un 6. Questo significa che, se gioco con due dadi, su 24 tiri mi deve uscire un doppio 6. Monsieur Pascal è matematica e, come lei mi insegna, la matematica non è un’opinione. E invece non succede… I dadi sono truccati?».

Il ragionamento non fa una piega!

Ma in effetti, anche Pascal (ed era Pascal, eh… Uno di cui hanno calcolato dovesse avere un quoziente intellettivo di 185!)  lì per lì non riesce a trovare una risposta e allora che fa? Scrive a Fermat una lettera che, più o meno, doveva suonare così:

«Caro Fermat,
come stai? Qui tutto bene. Hai visto il mio ultimo teorema? Stai a rosica’, eh?
Non te la prendere, sto scherzando: permalosone! (N.d.R. ancora non avevano inventato le emoticon e dovevano stare molto attenti a quello che scrivevano).
Senti un po’… ho avuto un’ideuzza che potrebbe farci diventare ricchi… Si tratta di risolvere un problemino semplice, semplice e in due ce la possiamo fare: secondo te, quante volte devo lanciare due dadi per essere sicuro che esca un doppio 6?

Ah, Ferma’… Quando scrivi i teoremi, ricordati di metterci anche la dimostrazione…
Cordialmente, tuo Blaise».

A forza di scambiarsi lettere con Fermat, Pascal alla fine trova la soluzione e mette su le basi della teoria delle probabilità.

E grazie a Pascal (e Fermat) possiamo, oggi, parlare di rischio come di una funzione associata a probabilità e gravità. Pensate a come sarebbe stata la definizione di rischio all’art. 2, comma 1, lett. s) del D.Lgs. n. 81/2008 senza il contributo di Pascal: «esito di una punizione divina che si manifesta in forma di raggiungimento del livello potenziale di danno per una persona».

In tre precedenti post (primo, secondo e terzo) ho cercato, comunque, di rappresentare come provare a fare valutazioni di rischi non misurabili – perché non se ne conosce la probabilità reale del loro manifestarsi – sia velleitario: nel mondo reale fare una valutazione dei rischi basandosi sulle probabilità è come scommettere sugli esiti di un dado truccato.

Persino nel dominio dei «fatti noti conosciuti», quello nel quale sappiamo cosa può accadere, non abbiamo valori di probabilità da associare ai vari esiti.

Come uscirne? In effetti non se ne esce, ma possiamo provare a darci un metodo per migliorare l’approccio…

La questione deve essere spostata dall’idea di poter fare una previsione della probabilità che un evento accada, alle decisioni da prendere quando si ipotizza che qualcosa possa accadere (i fatti noti conosciuti) o quando non si hanno sufficienti elementi su come stiano le cose (fatti ignoti conosciuti).

Uso sempre Pascal per spiegare il ragionamento, rifacendomi alla sua scommessa sull’esistenza di Dio (nota come «scommessa di Pascal»).

Per un agnostico, l’esistenza di Dio è un fatto ignoto conosciuto: sa di non sapere se Dio esista o meno e sa di non poterne dimostrare l’esistenza o il contrario, sospendendo il giudizio. Pascal gli dice (la mia versione moderna):

«Agno’, ma perché ti fai ‘sti problemi? Pensa alla salute… Scusa eh, supponi che Dio esista: che ti costa? Sì, per qualche decina di anni dovrai andare a messa tutte le domeniche, il venerdì non dovrai mangiare carne, ecc. ecc. Sono d’accordo, potrebbe essere una bella rottura. Se Dio non esistesse avresti perso un bel po’ di tempo inutilmente. In compenso, se Dio poco, poco esiste, c’hai guadagnato la vita eterna e neanche immagini che vita fanno lassù… altro che atti impuri…
Vedi agno’, la faccenda non è tanto se non credi e Dio non esiste: al massimo c’avrai guadagnato qualche bistecca il venerdì e ti sarai potuto ammazzare di atti impuri nel corso della tua vita (ok, non è poco).
Quello su cui devi ragionare è il worst case, il caso peggiore: Dio esiste, ma tu non c’hai creduto. Secondo te, Lui come  la vede la faccenda che tu abbia passato questi decenni ignorandolo, frequentando donnacce e votando comunista? Lo sai com’è fatto: come minimo ti schianta all’inferno senza pensarci due volte, nel braccio dei diavoli sodomizzatori e degli antivaccinisti».

In questo ragionamento (un po’ tirato, a dir la verità, ma che comunque ha buttato le basi della teoria dell’utilità attesa), Pascal ha completamente tolto dalle variabili la faccenda del calcolo delle probabilità di eventi di cui non si possono calcolare le probabilità, limitandosi a valutare le conseguenze.

Noi possiamo anche non sapere quali possano essere le probabilità del verificarsi di un dato evento negativo, ma siamo piuttosto bravini a ipotizzare le possibili conseguenze. In effetti, però, il problema è che anche le conseguenze possono essere molteplici e non è che uno possa sempre riferirsi al worst case, perché i costi sarebbero insostenibili.

Per andare incontro alle richieste del legislatore, che ci impone di fare comunque una valutazione dei rischi, possiamo allora provare a dare più peso alla nostra capacità di immaginare le conseguenze (che in linea di massima sono note e immaginabili), che associare delle probabilità (che ignoriamo completamente), senza affidarsi necessariamente al caso peggiore.

Da qualche anno a questa parte utilizzo una classica matrice 4 x 4 (come quella che praticamente tutti usano nei loro DVR), ma nel calcolo del rischio, anziché usare la relazione R = P x D, utilizzo:

R = P x D2.

Pensate alle classiche espressioni quali-quantitative che vengono utilizzate per determinare P… Tipicamente, P = 1 viene assegnato a (cito a memoria): «Non si sono mai verificati eventi simili. Il verificarsi dell’evento susciterebbe stupore…». In sostanza, nella maggior parte dei casi, chi utilizza questi criteri dovrebbe quasi sempre assegnare P = 1.

Valutando in modo non lineare il danno, invece, eventuali errori di valutazione determinati dall’impossibilità di assegnare valori esatti alla probabilità associata al verificarsi di un determinato evento (in particolare sottovalutazioni) verrebbero compensate, senza ricorrere al worst case.

Ho visto molti criteri di valutazione in questi anni per determinare il rischio: chi aggiunge nella relazione la formazione, chi i DPI, chi l’esperienza, ecc.

Tutti criteri ragionevoli, ma che, a mio modo di vedere, aumentano solo le variabili non perfettamente note che, nell’ambito di un processo decisionale possono portare a conclusioni errate sul da farsi.
Per questo, consapevole anche dei giganteschi limiti che esistono in questi processi epistemologici, io preferisco limitare al minimo gli elementi su cui concentrarmi.

La speranza, tuttavia, è che prima o poi potremo smettere di prenderci in giro con questi inutili giochetti, riprendendoci la nostra intelligenza del rischio.

Pubblicato in: cultura della sicurezza, incidenti, valutazione dei rischi

Il rischio è un concetto borghese

Ho provato a schematizzare la supercazzola di Rumsfeld alla quale mi ero ispirato nel mio precedente post per evidenziare quanto possa essere inefficiente un approccio prevenzionistico basato sulla valutazione dei rischi.

Vale la pena riprenderla qui per rimirarne ancora una volta la perfetta mascettitudine e lo stile antaneggiante che stuzzica prematuramente.

“Ci sono fatti noti conosciuti, le cose che sappiamo di sapere. Ci sono fatti ignoti conosciuti, vale a dire le cose che ora sappiamo di non sapere. Ma ci sono anche fatti ignoti sconosciuti, le cose che non sappiamo di non sapere.”

Il tutto può essere riassunto sulla base della presenza di due parametri:

  • Consapevolezza;
  • Conoscenza.

Non mi soffermerò sulla loro definizione: ritengo sia più che sufficiente, a tal fine, il senso comune che viene assegnato a questi termini.

Quello che piuttosto vorrei evidenziare è che la relazione tra i due aiuta a comprendere bene la differenza che esiste tra «incertezza» e «rischio».

Se, come me, vi occupate professionalmente di sicurezza sul lavoro, il rischio è il vostro mestiere. Ormai dovreste riuscire a maneggiarlo come un piatto di bucatini all’amatriciana, riuscendo a non schizzarvi la camicia col sugo mentre li avvolgete con la forchetta (modestamente, sono cintura nera di avvolgimento del bucatino… e le mie camicie sono più immacolate di un giglio).

Del rischio, dopo tutti questi anni di applicazione della norma, ormai dovremmo conoscere ogni più recondito anfratto. Tutti sappiamo, per esempio che il concetto di rischio è correlato al concetto di probabilità: ce lo dice la definizione stessa riportata nel D.Lgs. n. 81/2008.

Se usiamo l’approccio di Rumsfeld, il rischio ha a che fare con un fatto ignoto generato da un insieme noto di possibili esiti.

Secondo l’approccio normativo, il rischio è associato alla consapevolezza: è tutta una questione di impegno, ma se ti applichi puoi davvero riuscire a valutare tutti  i rischi. Questo è il mantra…

L’incertezza, al contrario, non è definita nel D.Lgs n. 81/2008, anzi non è nemmeno contemplata. Essa, in effetti, ha a che fare con un fatto ignoto generato di un insieme ignoto di possibili esiti. L’incertezza è roba che ha a che fare con la conoscenza. Essa è di natura epistemica, non aleatoria (per chi volesse approfondire, consiglio la lettura di «Giocati dal caso» di N.N. Taleb); in pratica, l’incertezza consiste in una mancanza di conoscenza dei possibili esiti.

Quando giochiamo alla roulette in un casinò, non esiste l’incertezza: le regole del gioco sono chiare, tutto funziona esattamente come è raccontato nei libri di statistica e calcolo delle probabilità. Un casinò è un luogo magico in cui ogni incertezza DEVE essere assente. Lì dentro deve esistere solo il rischio ed è nell’interesse del gestore del casinò che le cose si mantengano tali. Il gestore, infatti, avendo il monopolio del banco, ha la certezza di vincere sul lungo termine (ha una chance di vittoria in più rispetto a tutti gli altri e questo è sufficiente), ma per mantenerla, deve eliminare ogni possibile fonte di disturbo: gente che bara, carte truccate, macchine difettose, roulette sbilanciate, cioè ogni elemento che possa farlo precipitare, dal magico mondo del rischio, negli inferi dell’incertezza.

Molto banalmente, chi gestisce un casinò ha un modo abbastanza sicuro per sospettare se c’è gente che sta barando nel locale: è sufficiente calcolare se i loro esiti positivi sono coerenti con le probabilità di vittoria per riuscire a concentrare tutte le attenzioni solo su quelle situazioni che presentano possibili anomalie. Non si scappa…

È come guardare l’aerofotogrammetria di un impianto chimico o di un cantiere, scoprendo in anticipo chi sta per infortunarsi e dove… Minority Report applicato alla sicurezza.

Detto in breve, dunque:

  • Il rischio è un’incertezza misurabile;
  • L’incertezza è un rischio non misurabile.

Ora, chiedetevi: sulla base della vostra esperienza, nel mondo reale degli ambienti di lavoro avete a che fare con rischi o incertezze?

L’attuale approccio normativo postula la conoscibilità del rischio, confina il mondo reale al salone di un casinò, eliminando l’incertezza che, al contrario, governa la gran parte dell’universo che ci circonda.

Perpetuare la logica suggerita dalla norma è utile solo a soddisfare il nostro bisogno atavico di sicurezze e di ordine mentale.

Il rischio è un concetto borghese (semicit. Cartier-Bresson).

Pubblicato in: cultura della sicurezza, incidenti, valutazione dei rischi

Una farfalla ci seppellirà

Nel 1684 E. Halley (sì, quello della cometa, tra le altre cose) andò a Cambridge per parlare con I. Newton (sì, quello delle leggi della dinamica, tra le altre cose) di una cosetta su cui si era fissato e quando ti fissi è brutto.

Tutto era iniziato una sera al pub. Halley e R. Hooke (sì, quello della legge sulla forza elastica, tra le altre cose) accettarono una scommessa su chi sarebbe stato il primo a trovare la legge matematica che descrive il moto dei pianeti intorno al sole (chi non fa scommesse del genere al pub con gli amici?) postulato da Keplero.

Hooke sosteneva di conoscere già la risposta, ma era quel tipo di amici ai quali devi sempre fare la tara di ciò che ti raccontano (ed infatti, non tira fuori la soluzione).

Siccome non riusciva a venirne a capo, Halley va a parlarne a Newton (ricorre cioè all’aiuto a casa… Di Newton), nella speranza che quello potesse dargli qualche dritta, un po’ di polvere puffa, suggerirgli una magicabula per vincere la scommessa e farsi il grosso con Hooke.

Qui viene il bello… inizia a parlarne a Newton e quello fa: «Ah sì, quella faccenda… L’ho risolta 5 anni fa! C’ho le carte qui, da qualche parte sulla scrivania!».

Newton aveva già risolto il problema del moto dei corpi in orbita (senza il quale oggi non avremmo le leggi della dinamica e quella di gravitazione universale, il calcolo infinitesimale e tante altre cosette utili), ma non avendo pubblicato nulla era come se tutto ciò non fosse mai accaduto (se non per Newton).

Facciamo un salto di quasi tre secoli. Siamo nel 2002 ad una conferenza stampa e il segretario della difesa statunitense D. Rumsfeld, alla domanda su legami tra governo iracheno e armi di distruzione di massa e terrorismo, risponde:

“Ci sono fatti noti conosciuti, le cose che sappiamo di sapere. Ci sono fatti ignoti conosciuti, vale a dire le cose che ora sappiamo di non sapere. Ma ci sono anche fatti ignoti sconosciuti, le cose che non sappiamo di non sapere.”

Considerando che l’Iraq non aveva armi di distruzione di massa, che lui lo sapeva e che doveva intortarla, per questa frase Rumsfeld ha vinto il premio Antani D’oro che la Fondazione Conte Mascetti assegna a chiunque riesca a giustificare una guerra con una supercazzola.

Ora, però, fermatevi un attimo a rileggere quello che ha detto Rumsfeld. Scoprirete che una bella fetta di epistemologia è racchiusa là dentro.

Per esempio, mentre per Halley la legge matematica che descriveva il moto delle orbite dei pianeti era un “fatto ignoto conosciuto” (cioè: «So cosa non so»), la stessa cosa non si poteva dire di Newton per il quale la medesima legge era un “fatto noto conosciuto” (cioè: «So cosa so»).

Quando facciamo una valutazione dei rischi, noi valutiamo solo i “fatti noti conosciuti”. Considerando che la maggioranza dei “fatti noti” è “conosciuta” ai più, non serve un vero esperto: quasi tutti sono in gradi di rendersi conto se c’è un rischio di caduta dall’alto o di natura meccanica o elettrica, ecc.

Una percentuale piuttosto elevata del lavoro di Consulente per la sicurezza lo potrebbe fare chiunque abbia un po’ di esperienza nel campo specifico in cui il consulente sta consigliando.

Le cose cambiano quando si supera il variabile confine dei “fatti noti conosciuti”.

Qui molte certezze vengono meno e si può cadere nelle sabbie mobili dei “fatti ignoti conosciuti” o risucchiati nel gorgo dei “fatti ignoti sconosciuti”. Eh già…

Quando ti trovi davanti ad una persona apparentemente inanimata all’interno di uno spazio confinato, o sai di non sapere o sei spacciato.

Ed in molti casi, purtroppo, è la seconda a prevalere: se non sai di non sapere, non farai nemmeno nulla per difenderti. I fatti ignoti sconosciuti sono semplicemente le domande che non sono ancora state poste. L’assenza totale di percezione (in molti casi) di rischi all’interno degli spazi confinati, accompagnata con la mancanza di conoscenza dei rischi propri degli spazi confinati è un esempio tipico di quello che fanno i “fatti ignoti sconosciuti”.

Chi invece sa di non sapere, idealmente si astiene dall’entrare nello spazio confinato, ma non sa che fare. E qui entriamo in gioco noi.

Infatti, quando si supera la soglia dei “fatti noti conosciuti”, quello è il momento in cui ci vuole l’esperto. L’esperto fa proprio questo di mestiere: incrementa l’area dei fatti noti conosciuti. È in grado di fare valutazioni dei rischi complesse; ha competenze che gli permettono di sapere che certe cose esistono e che devono essere tenute in considerazione; ha un bagagliaio pieno zeppo di soluzioni.

Qual è il problema? L’errore dell’esperto.

Quello che Rumsfeld non ha detto è che ci sono anche i “fatti noti sconosciuti” (cioè: «Non so ciò che so»). Secondo me sono i peggiori, perché sono i più comuni, quella che ci sono sempre e non si vedono praticamente mai, se non quando qualcosa ne appalesa l’esistenza.

La cosa brutta, brutta è che sbagliamo con rigore e serietà, dato che quella è la nostra materia, l’abbiamo studiata, ci hanno chiamato anche per quello… Un “fatto noto sconosciuto” non è altro che un “fatto noto conosciuto” in cui non siamo riusciti (per vari motivi) ad usare tutte le nostre risorse per risolvere il problema (pensate a tutti quei compiti in classe di fisica in cui conoscevate la teoria, avevate inquadrato il problema, ma che avete risolto in modo errato. Semplicemente perché non avete considerato un elemento minuscolo ma essenziale nella traccia del problema, ma non ne siete stati consapevoli finché non avete visto la correzione del professore).

Sono quei fatti che abbiamo sotto gli occhi, ma di cui non cogliamo la rilevanza. E non possiamo usare ciò che sappiamo se gli elementi che analizziamo ci appaiono irrilevanti e dunque vengono scartati.

Il guaio è che, quando ci si incappa, prima che ci si accorga del problema per noi quelli sono “fatti noti conosciuti” e li trattiamo come tali.

Come dico sempre nei miei corsi di formazione sulla valutazione dei rischi: «Quando guardate una scaffalatura alta, dovete chiedervi “Dov’è la scala che serve a raggiungere i ripiani più alti?”».

Volete esempi di “fatti noti sconosciuti”?

11 settembre 2001 (sì, quello dell’attentato): se tutti gli arei fossero stati dotati di cabine di pilotaggio protette da porte blindate, tutto quello che sappiamo di quell’evento non sarebbe mai avvenuto. Attentatori armati di taglierino non sarebbero mai potuti entrare nel cock-pit, sopprimere i piloti e prendere il comando degli aerei.

Immaginate un modello causale lineare tipo “domino”: con una misura così semplice e a basso costo, avreste impedito che l’attentato dell’11 settembre 2001 avvenisse con le modalità che conoscete, Rumsfeld non avrebbe detto quella frase, avreste evitato un paio di guerre in medio oriente e qualche centinaio di migliaio di morti.

Questo è il fantastico mondo dei modelli causali lineari: basta mettere una barriera e le tessere di domino a valle restano in piedi.

Tuttavia, 14 anni dopo aver evitato il più grave attentato della storia moderna (cosa di cui, però, nessuno vi avrebbe ringraziato, non essendo mai accaduto), il copilota di un aereo di linea in volo tra Barcellona e Dusseldorf avrebbe usato la vostra porta per suicidare sé stesso, portandosi dietro, già che c’era, le 150 persone che si trovavano a bordo.

Fin qui è facile: l’analisi retrospettiva (hindsight bias) fa apparire tutto prevedibile e prevenibile.

Lascio ai risolutori particolarmente abili il compito di dimostrare mediante congetture come il ricorso alla presenza contemporanea e costante di almeno due piloti nella cabina di pilotaggio, ovvero la misura posta a difesa del ripetersi di eventi come quello appena su narrato, generi nuovi scenari incidentali.

Benvenuti nel magico mondo delle complessità, nel quale ogni soluzione genera nuovi problemi, la ridondanza aumenta la complessità e non si possono valutare e impedire tutti i rischi, dove gli errori sono latenti, dove causa ed effetto non sono lineari ed in cui il battito d’ali delle farfalle è preso molto sul serio.

Ecco, in conclusione, quello che per me è un altro dei grossi problemi degli approcci basati sulle valutazioni dei rischi, ovvero sulla conoscenza: a fronte di un solo modo di funzionamento che garantisca il successo e che consiste nel valutare bene i fatti noti conosciuti, ne abbiamo ben altri tre che possono danneggiarci e nei confronti dei quali possiamo fare poco o nulla.

Una farfalla ci seppellirà.

Butterfly effect

 

Pubblicato in: cultura della sicurezza, incidenti, valutazione dei rischi

La normalità degli incidenti

In un precedente post ho cercato di rappresentare alcuni limiti dell’attuale approccio prevenzionistico basato sulla valutazione dei rischi.

Come sappiamo, l’uso di questo strumento è stato introdotto dai recepimenti delle direttive comunitarie di fine anni ’80 come misura complementare alla prevenzione/protezione di natura puramente tecnologica che, storicamente, dalla rivoluzione industriale in poi, ha rappresentato il paradigma stesso di “sicurezza”.

Questa faccenda della valutazione dei rischi nasce da studi iniziati nella seconda parte degli anni ’70 che avevano evidenziato come molti incidenti che, a prima vista, sembravano avere natura tecnologica, in realtà nascondevano anche (o soprattutto) tutta una serie di fallimenti, errori, omissioni a livello organizzativo.

Ciò che ha solleticato l’interesse del legislatore comunitario è l’apparente, ovvia conclusione che, dopo aver attuato le misure tecnologicamente fattibili, se valuti i rischi rimanenti e ti organizzi adeguatamente, è praticamente impossibile che qualcosa possa andar male (e se qualcosa va male è, ovviamente, perché hai eseguito male qualcuno dei passaggi precedenti).

Su queste premesse è costruito l’intero paradigma della sicurezza del D.Lgs. n. 81/2008.

Ora, io sostengo con forza che questo approccio è totalmente insufficiente, velleitario, platonico e ci sta facendo spendere un mucchio di energie e risorse.

Se guardiamo le statistiche INAIL, in particolare le serie storiche di dati dal 1951 al 2010[1], mostrano come dal 1994 (anno di introduzione del D.Lgs n. 626/1994) il numero degli infortuni mortali e non mortali sia sì lentamente decresciuto, ma seguendo una tendenza già abbondantemente avviata in precedenza.

2

1

Analogamente dal 2008 (anno di introduzione del D.Lgs. n. 81/2008) al 2015.

3

4

Occorre inoltre tenere conto che:

  • Questi numeri sono assoluti, mentre si sarebbe dovuto analizzare il tasso infortunistico sul numero di ore lavorate, ma l’INAIL non fornisce questo dato (e io un po’ mi rompo a incrociarlo con le statistiche ISTAT);
  • Dal 2008 al 2015 il numero di ore lavorate si è ridotto drasticamente a causa della crisi economica. L’INAIL stessa afferma che questo spiega in parte la riduzione del numero di infortuni degli ultimi anni;
  • Non c’è mica solo la normativa ad essersi evoluta dal 1951 ad oggi, eh… anche la tecnologia, la consapevolezza e la cultura hanno fatto passi da giganti e possono contribuire a spiegare il trend infortunistico.

A mio avviso, pur non potendo trarre conclusioni definitive, ci sono forti elementi di dubbio sull’efficacia di questo approccio come arma finale nella lotta al fenomeno degli infortuni sul lavoro.

La questione è che tutta ‘sta faccenda è nata già vecchia perché, mentre varavano la direttiva comunitaria, altri approcci teorici tendevano a smontare questa rappresentazione platonica del rischio il cui principale difetto è quello di non tenere conto della complessità dei sistemi.

Nel 1984 Charles Perrow disegnò la Normal Accidents Theory che, in sostanza, afferma che, eventi apparentemente stupidi e errori/fallimenti non critici possono a volte interagire tra loro in modi totalmente inattesi, fino a produrre disastri. Egli arriva ad affermare che, in sistemi particolarmente complessi, l’incidente è sostanzialmente inevitabile (da cui la denominazione di incidente “normale”).

C’è un famoso grafico che, in funzione di due parametri che Perrow considera cruciali (interazione e connessione), permette di sapere dove si colloca un’ipotetica organizzazione rispetto alla sempre maggiore ineluttabilità dell’incidente (angolo in alto a destra).

3-Perrow-from-Accidents-Normal

La faccenda è che anche questo grafico (risalente all’edizione del 1984) dovrebbe essere aggiornato alla complessità crescente di oltre 30 anni di evoluzione tecnologica e organizzativa.

Oggi qualunque linea e processo di produzione si è spostato verso l’alto e verso destra.

Un cantiere odierno è abbondantemente nel quadrante 2, oggi molto più che in passato.

Ciò che rende sempre più normali gli incidenti è la sempre minore comprensione del funzionamento delle cose e dei sistemi da parte di chi lavora e di chi organizza e ciò a causa dell’incremento della complessità tecnologica (compreso l’uso l’uso di software) e organizzativa che fanno sì che gli incidenti siano il prodotto di persone normali che fanno lavori normali in organizzazione normali.

A valle dell’incidente, al contrario, tutto sarà spiegato ricorrendo alla rappresentazione di eventi eccezionali prodotti da scorrette decisioni determinate da errate valutazioni dei rischi.

La verità è che, con un approccio di tipo riduzionista possiamo anche mettere in sicurezza le singole parti di un sistema, ma non è detto che il sistema nel suo complesso sarà sicuro, poiché non si possono studiare, a causa della complessità, le interazioni tra le parti. Insistere sulla necessità di eliminare o ridurre tutti i rischi attraverso la loro valutazione non renderà la realtà più semplice e gli incidenti meno inevitabili.

 

 

[1] Purtroppo l’INAIL, dal 2010 in poi, ha modificato la modalità di aggregazione dei dati, per cui i grafici dal 1951 al 2010 e quello dal 2008 al 2015 non possono essere comparati, nemmeno come tendenze di andamento, ma devono essere analizzati separatamente

Pubblicato in: cultura della sicurezza, incidenti, valutazione dei rischi

Cos’è per voi la sicurezza?

Per quanto possa apparire una questione meramente filosofica, quasi tutti i miei corsi di formazione iniziano con una domanda: «Cos’è per voi la sicurezza?».

Provateci se vi capita (ammesso che già non lo facciate)…

L’art. 2 del D.Lgs n. 81/2008, quello delle “Definizioni”, riferisce cosa debba intendersi per «Pericolo», «Rischio», »Prevenzione», ma non ci dà una definizione di «Sicurezza». Quella che potrebbe avvicinarsi di più è, forse, la definizione di «Salute», intesa come «stato di completo benessere, fisico, mentale e sociale, non consistente solo in un’assenza di malattia o d’infermità».

Tecnicamente, da questa definizione emergono due aspetti rilevanti:

  1. Trattandosi di uno “stato”, esso è soggetto ad evoluzione.
  2. L’assenza di malattia o infermità non è condizione sufficiente per affermare che l’individuo goda di uno stato di buona salute.

Lo “stato” di salute, evidentemente, è influenzato da caratteristiche soggettive dell’individuo, ma anche dalle condizioni al contorno. Non potendo il datore di lavoro incidere più di tanto sulle prime, quello che può fare è agire sulle seconde, le condizioni presenti sul luogo di lavoro. Tuttavia, si pone un problema non indifferente di prevedibilità degli stati futuri. In sostanza, ci si chiede se, mantenendo invariate le condizioni al contorno, quelle che al momento sembrano garantire al lavoratore il mantenimento del suo stato di buona salute, quest’ultima sarà garantita anche nel futuro.

La risposta è rigorosamente: NO!

Direi che è abbastanza ovvio. Per esempio, il datore di lavoro monitora, attraverso la sorveglianza sanitaria, lo stato di salute dei lavoratori. Ma il fatto che questi godano di un ottimo stato di salute (oggi), non implica che il lavoro sia sicuro. Un’analisi accurata dei rischi, potrebbe rilevare che, se venissero mantenute quelle condizioni di lavoro, lo stato di salute potrebbe averne pregiudizio. Dovremmo dire piuttosto che, nonostante le condizioni con cui viene svolto il lavoro, i lavoratori (oggi) godono di un ottimo stato di salute.

In sostanza, attraverso la valutazione dei rischi, la sorveglianza sanitaria e altri strumenti di monitoraggio, il datore di lavoro può fare una fotografia della «salute» dei lavoratori nella propria azienda, ma non ha alcuna certezza che l’assenza di malattie o infermità sia correlata con le misure di prevenzione e protezione attuate (punto n.2 di cui sopra).

Riassumendo, in presenza di una malattia o infermità correlabile con il lavoro, noi abbiamo la certezza dell’assenza di una condizione di sicurezza in azienda, ma in assenza di malattie o infermità non possiamo dire nulla in proposito (sto semplificando. In realtà esistono anche altri indicatori, ovviamente, ma se anche questi tacciono, il discorso è identico).

Regola aurea quando si parla di sicurezza: assenza di prove non è prova di assenza.

Tornando alla domanda iniziale, ascoltando le risposte dei partecipanti al corso, alla fine si arriva sempre lì: la sicurezza viene definita come assenza di esiti indesiderati, come incidenti, malattie o infortuni o assenza di rischi o pericoli.

In pratica, la sicurezza è definita come assenza di qualcosa.

Questa definizione, però è strana, quantomeno nelle sue implicazioni epistemiche (scrivere questa parola è l’unico motivo per cui pubblico questo post). Ciò significa, infatti, che, in presenza di qualcosa – attraverso la manifestazione “sensibile” di un incidente di una malattia, di un infortunio o la rilevazione di un pericolo o la valutazione di un rischio – è possibile sapere che manca la sicurezza. In compenso se non ci sono manifestazioni o se il pericolo non viene rilevato e il rischio valutato (per esempio perché occulti), non si può affermare con sicurezza che vi sia sicurezza.

Queste banali considerazioni, sono a mio avviso, il paradigma della strategia prevenzionistica attuale e il suo stesso limite.

Ci viene chiesto e adottiamo, per garantire la sicurezza, misure proattive (individuazione dei pericoli, analisi e valutazione dei rischi) o reattive (indagini degli incidenti, infortuni, near-miss), ma c’è sempre un gigantesco problema di fondo: i rischi che si valutano e gli incidenti che accadono sono solo un’infinitesima, minuscola, irrilevante frazione dei rischi realmente presenti (e non rilevati) e degli incidenti che non sono accaduti, ma che sarebbero potuti accadere e che, forse, accadranno.

Continuare a proporre un modello di gestione della sicurezza sul lavoro che passi attraverso la valutazione di tutti i rischi, può forse soddisfare il nostro patologico bisogno di certezze e darci la sensazione di aver fatto tutto il possibile per garantire la sicurezza.

Col senno di poi, ad infortunio avvenuto, sarà semplice trovare il rischio non adeguatamente valutato e, sulla base dell’obbligo di valutare tutti i rischi, affermare la colpa consistente nel non essersi impegnati abbastanza.

Forse, però, sarebbe il caso anche di andare un po’ oltre questo paradigma. Non si tratta di negare l’importanza della valutazione dei rischi, ma riconsiderarne l’efficacia quale strumento principale per la prevenzione.

Pongo una domanda (ammesso che ci sia ancora qualcuno all’ascolto): cosa succederebbe se, oltre che analizzare i – relativamente – pochi casi in cui le cose sono andate male (incidenti) o in cui potrebbero andare male (rischi), analizzassimo anche come sia possibile che, nella stragrande maggioranza dei casi, le cose vadano bene (nonostante tutto)?

 

 

Pubblicato in: incidenti, spazi confinati

Ancora spazi confinati

Tre operai morti e altri tre in gravi condizioni sulla nave “Sansovino”. Non se ne sa ancora molto, ma una cosa è certa: è l’ennesimo incidente all’interno di uno spazio confinato.

Gli elementi per dirlo ci sono tutti:

  1. elevato numero di vittime: secondo la banca dati dell’INAIL, dal 2005 al 2010, sono accaduti 29 eventi negli spazi confinati, che hanno prodotto 43 vittime. Questo significa che, statisticamente, quando l’incidente accade in uno spazio confinato, avremo più di una vittima;
  2. l’ambiente nel quale è accaduto: uno spazio interno alla nave, probabilmente una sentìna o una cisterna;
  3. l’origine: l’aria respirata (probabile presenza di sostanze pericolose nell’aria, ma non si può escludere la possibile assenza di ossigeno).

Non è un caso se gli spazi confinati sono così pericolosi. I loro rischi sono intrinsecamente correlati alla loro natura, ma quella di uno spazio confinato è una natura complessa nella sua apparente semplicità. Sembra sostanzialmente un ambiente come un altro, mentre nasconde gigantesche insidie.

Piccolo esempio. Nel 2010 mi occupai come CTP di un caso di infortunio mortale in uno spazio confinato nel quale erano morti, anche lì, purtroppo, tre lavoratori. Durante un accesso ispettivo vidi personalmente i Vigili del Fuoco entrare nella cisterna metallica in questione muniti di autorespiratore con un faretto da cantiere alimentato a 220 V. Poiché la causa presunta dell’incidente era stata l’assenza di ossigeno nell’aria per avvenuta introduzione di azoto nello spazio confinato, erano talmente concentrati su quello specifico rischio, dall’aver completamente dimenticato il rischio mortale di elettrocuzione derivante dal ritrovarsi in un luogo conduttore ristretto.

In assenza di altre informazioni su quanto accaduto ieri sulla nave “Sansovino”, non  vado oltre, non entro nel merito di quanto accaduto. Ovviamente c’è un’inchiesta in corso, verranno certamente nominati dei periti e se ne saprà di più. A valle di un incidente, specie se grave come questo, è doverosa la ricerca di eventuali responsabilità ma, per chi come me si occupa di sicurezza sul lavoro queste sono secondarie rispetto alla conoscenza delle dinamiche.

 

Le responsabilità si ricercano ex post: deve prima accadere qualcosa, poi si cerca di chi, eventualmente, è la colpa. Conoscere le dinamiche, permette di agire ex ante, usare l’esperienza e la competenza per evitare che i fatti si ripetano.

Ovviamente non è così semplice. Di esperienza di incidenti negli spazi confinati, oggi ce n’è moltissima in giro, ce ne sarebbe già a sufficienza per evitare praticamente qualsiasi incidente. Il problema è:

  1. la diffusione dell’esperienza e della conoscenza;
  2. l’eccesso di esperienza.

Mi spiego. In questi anni si è parlato moltissimo di spazi confinati, formazione e competenza degli addetti che vi debbono operare, ecc. Ma siamo convinti che tutta questa informazione sull’argomento si sia diffusa capillarmente? Lo dico, anche qui, per esperienza: no! Abbondano ancora gigantesche sacche di ignoranza, specie tra le microimprese (non è evidentemente il caso della tragedia accaduta ieri). Non parlo semplicemente di inesperienza, ma di vera e propria non conoscenza del fenomeno, il motivo che spesso è uno dei fattori latenti che stanno all’origine di questi incidenti. Non saper riconoscere uno spazio confinato come tale, significa non valutarne i rischi, vuol dire non essere preparati a ciò che potrebbe accadere e, di conseguenza, non saper rispondere alla situazione. Quindi sì, di esperienza e conoscenza dell’argomento ce n’è tanta, ma distribuita male.

L’eccesso di esperienza, all’opposto, rischia di portare alla confidenza. Già l’etimologia di questa parola la dice lunga: «avere fiducia di…». Ecco, io personalmente non mi fiderei mai di uno spazio confinato, ma proprio mai. L’esperienza è una cosa buona, permette di avere familiarità di un rischio e saper anticipare ciò che potrebbe accadere. L’eccesso di esperienza è l’eccesso di una cosa buona e, come tutti gli eccessi, alla lunga fa male.

I due elementi, tra altro sono spesso correlati. L’eccesso di esperienza porta a pensare di conoscere tutto quello che riguarda l’argomento di cui si è esperti, al punto da non prendere proprio in considerazione l’ipotesi che ci sia qualcosa che non è noto, esponendosi così alle sue conseguenze come un qualsiasi soggetto inesperto.

Comunque sì, sono convinto che riconoscere uno spazio confinato come tale, sia la prima, essenziale necessità, senza la quale è molto difficile impedire che eventi come quelli sulla nave “Sansovino” possano ripetersi.

Questa è una condizione necessaria, ma non sufficiente.

Le spiegazioni dei singoli incidenti negli spazi confinati possono apparire semplici: tutto è evidente, specie dopo che qualcosa è accaduto. Risalire alle cause primarie col senno di poi è moooolto più facile che prevedere in anticipo quali possono essere gli innumerevoli eventi incidentali prima che le cose accadano.

Per questo è necessario, sempre, sempre, sempre rispettare la gerarchia delle misure di prevenzione e protezione che, in molti casi, permetterebbero di entrare a conoscenza di fattori preliminarmente non tenuti in considerazione. Il rispetto dell’ordine gerarchico è fondamentale, ai fini dell’efficacia di tali misure:

  1. Eliminazione o sostituzione
    • eliminazione degli spazi confinati (in fase di progettazione, è possibile);
    • evitare, ove possibile di accedere agli spazi confinati (soprattutto quando l’accesso è necessario per operazioni di ispezione o pulizia, esistono tecniche alternative);
    • disenergizzazione di tutte le forme energetiche presenti nello spazio confinato (tutte: elettrica, cinetica, magnetica, termica, elastica, chimica…).
  2. Controlli ingegneristici
    • ventilazione degli ambienti;
    • lock-out/tag-out;
    • perimetrazione e segnalazione;
    • analisi di tutti i parametri di bonifica, al fine di verificare l’efficacia degli interventi eseguiti;
    • ….
  3. Sistemi di allarme
    • monitoraggio continuo dell’aria ambiente;
    • odorizzazione dei gas;
    • segnaletica di pericolo;
    •  uso di rilevatori portatili;
  4. Formazione, addestramento e procedure
    • permesso di lavoro;
    • procedure di allarme;
    • sistemi di comunicazione;
    • procedure di emergenza;
  5. Dispositivi di protezione individuale

Bucare uno solo di questi passaggi può condurre ad effetti non prevedibili.

 

Pubblicato in: incidenti, spazi confinati

Nuovo decreto spazi confinati: viaggio nell’iperuranio

Se il buon giorno si vede dal mattino, si prospetta un diluvio.

Fresco come un ovetto di giornata, croccante come il pane appena sfornato, il nuovo DPR n. 177/2011 merita certamente alcuni commenti, non fosse altro per l’importanza dell’argomento trattato: la sicurezza negli spazi confinati.

Commenti che farei partire dal titolo del decreto: “Regolamento recante norme per la qualificazione delle imprese e dei lavoratori autonomi operanti in ambienti sospetti di inquinamento o confinanti, a norma dell’articolo 6, comma 8, lettera g), del decreto legislativo 9 aprile 2008, n. 81”.

D’accordo che la rubrica di una legge non è legge, ma essa però può servire a spiegare il contenuto della norma. Ed allora la domanda è: perché la scelta del termine confinanti?

Possiamo con certezza escludere che si tratti di un errore di ortografia (alcuni pensano volesse scrivere confinati). Solo una persona in malafede potrebbe pensare che il legislatore scriva le leggi senza leggerle. Se ciò fosse vero, si chiamerebbero semplicemente scrivi, non leggi. E lui sarebbe uno scrivatore, non un legislatore. Gli antichi dicevano nomen omen…

Dunque ci deve essere qualche recondita motivazione, non immediatamente comprensibile ai nostri occhi.

L’ipotesi più accreditata, ma se volete anche la più semplice e quella di immediata interpretazione, è che il regolamento si applichi anche agli ambienti adiacenti a quelli sospetti di inquinamento (confinanti, per l’appunto). Come dire: definita una zona a rischio di inquinamento, si allarga il suo perimetro comprendendone all’interno gli ambienti confinanti per ottenere, diciamo, una zona di rispetto.

Io, tuttavia, ho un’ipotesi che meglio si attaglia alle caratteristiche del nostro legislatore comprendendone il fine ultimo, se volete la sua escatologia.

Platone definiva l’iperuranio come lo spazio confinante al nostro cielo, ma esterno ad esso, in cui risiedono le idee. Ecco, probabilmente il nostro legislatore intende qualificare le imprese o i lavoratori autonomi destinati ad operare nello spazio confinante, o meglio, nell’iperuranio. Forse per trovare suoi degni successori…

Chiarito dunque l’ambito in cui ci muoviamo, passiamo al campo di applicazione del decreto (scaricate l’allegato per meglio seguire), definito dai commi 2 e 3 dell’articolo 1.

Vedremo come quella di una visione iperuranica dell’universo da parte del legislatore sia certamente l’ipotesi più probabile.

Dal comma 2 si evincono quali siano gli ambienti nei quali si debbono svolgere le lavorazioni oggetto di qualificazione da parte del decreto, ovvero il campo di applicazione:

ambienti sospetti di inquinamento di cui agli articoli 66 e 121 del D.Lgs. n. 81/2008, e ambienti confinati di cui all’allegato IV, punto 3

Come si vede, il decreto non si applica solo agli spazi confinati (o confinanti che dir si voglia), ma il suo campo di applicazione è ancorato alle definizioni di alcuni ambienti definiti nel D.Lgs. n. 81/2008 e precisamente:

–       art. 66: pozzi neri, fogne, camini, fosse, gallerie e in generale in ambienti e recipienti, condutture, caldaie e simili, ove sia possibile il rilascio di gas deleteri

–       art. 121: pozzi, fogne, cunicoli, camini e fosse in genere, con possibile presenza di gas o vapori tossici, asfissianti, infiammabili o esplosivi

–       Allegato IV, punto 3: tubazioni, canalizzazioni e recipienti, quali vasche, serbatoi e simili

Questi e non altri.

Che sia all’art. 66 che all’art. 121 la definizione dell’ambiente non possa prescindere dal rischio derivante dalla presenza di gas all’interno di tali ambienti è evidente anche dal fatto che il legislatore iperuranico li definisce ambienti sospetti di inquinamento. Dunque per capire se si rientra nel campo di applicazione della norma, non basta che l’ambiente rientri tra quelli citati nei due articoli, ma essi devono presentare rischi derivanti dal rilascio di gas.

Pertanto, tanto per capirci, sono esclusi da questa definizione ambienti, pur ricadenti nell’elenco di cui agli artt. 66 e 121, in cui i rischi derivano da polveri, sia sotto il profilo tossicologico o di formazione di ATEX, ma anche quegli ambienti nei quali i rischi siano di altra natura, per esempio meccanici, elettrici, ecc.

Dunque, un’impresa destinata ad operare in uno scavo in cui si possa escludere la presenza di gas non necessiterà di alcuna specifica qualificazione, né si applicheranno le misure previste dal DPR 177/2011, anche se saranno presenti altri rischi tipici degli spazi confinati, per esempio il seppellimento.

Il successivo comma 3 del decreto è ancora più sconcertante e conferma, se mai ce ne fosse bisogno, la concezione metafisica della sicurezza secondo il nostro legislatore.

In esso infatti si circoscrive l’attività di verifica tecnico professionale da parte del committente ai soli casi in cui si ricada nel campo di applicazione dell’art. 26 del D.Lgs. n. 81/2008, ovvero ai lavori in appalto, prestazione d’opera o somministrazione nei quali il committente sia un datore di lavoro.

In due parole, se un privato cittadino dovesse aver bisogno di eseguire un’attività di manutenzione nella propria piscina (spazio confinato ai sensi dell’allegato IV, punto 3), non sarebbe tenuto ad eseguire alcuna specifica attività di verifica della qualificazione dell’impresa ad eseguire lavori del genere.

Evidentemente non sono abbastanza qualificato ad operare nello spazio confinante ed iperuranico, ma francamente fatico a comprendere questa distinzione, dato che il rischio è sostanzialmente legato all’ambiente in cui si svolgono le lavorazioni, non solo alla circostanza che esse siano o meno appaltate da un datore di lavoro o da un privato cittadino…

L’articolo 2 del DPR n. 177/2011, ci riporta alla realtà ed in esso sono contenute senz’altro norme apprezzabili, anche perché con esse si superano gli attuali limiti dell’art. 26 relativamente alle modalità con cui eseguire la verifica dell’idoneità tecnico-professionale di un’impresa, fornendo alcune indicazioni che certamente vanno nella direzione di una vera e propria qualificazione delle imprese.

Tra le norme apprezzabili, vale la pena citare:

–       presenza di personale, in percentuale non inferiore al 30% della forza lavoro, con esperienza almeno triennale relativa a lavori in ambienti sospetti di inquinamento o confinati. Tale esperienza deve essere necessariamente in possesso dei lavoratori che svolgono le funzioni di preposto

–       informazione e formazione e addestramento di tutto il personale, ivi compreso il datore di lavoro ove impiegato per attività lavorative in ambienti sospetti di inquinamento o confinati

–       DPI, strumentazione e attrezzature di lavoro idonei e  di addestramento al loro uso

–       DURC e integrale applicazione della parte economica e normativa della contrattazione collettiva di settore

–       Subappalti specificatamente autorizzati dal committente (anche se questo è già previsto nel codice civile, non fa male ribadirlo)

Qualche piccolo dubbio lo sollevo sul concetto di 30% della forza lavoro con esperienza triennale nel settore degli spazi confinati… Se da un lato è bene puntare finalmente sul concetto di esperienza e di curriculum, dall’altro mi chiedo: ma perché, fatti 100 i lavoratori di un’azienda, ben 30 debbano essere esperti di spazi confinati, anche se magari le attività della stessa prevedono che solo 3 di loro lavorino in spazi confinati? Forse per forza lavoro intendeva solo la squadra di lavoratori assegnata al singolo appalto?

Se il decreto si fosse limitato a fare quello che si era prefissato di fare (definire le modalità di qualificazione), a questo punto avremmo potuto dire che tutto è bene anche se inizia male.

Ma l’ultravitaminizzato legislatore, galvanizzato dall’aver scritto qualcosa di utile, ha forse ritenuto che un decreto di soli 2 articoli non bastasse e, poiché il dominio dei numeri interi positivi è superiormente illimitato, ha deciso di scrivere anche l’articolo 3 e Dio solo sa dove sarebbe potuto arrivare.

Se l’articolo 2, contiene norme apprezzabili scritte durante una visita illuminata oltre la volta celeste di platonica concezione, l’articolo 3 è evidentemente frutto di una peperonata ingerita la sera poco prima di andare a dormire che deve aver turbato il sogno del legislatore.

In esso infatti, al comma 1, si prevede che prima dell’accesso ai luoghi definiti nel campo di applicazione, debba essere eseguita apposita attività di informazione. Fin qui nulla di strano, se non fosse che è previsto che tale attività non duri meno di un giorno!

Ancora una volta ammetto la mia mancata idoneità ad operare nell’iperuranio, ma non capisco nemmeno lontanamente cosa si intenda raggiungere con questa indicazione.

Sostanzialmente il nostro ha ritenuto che, indipendentemente dai rischi che possano esservi concretamente, si necessiti di almeno un giorno (ed oso sperare che si riferisse ad una giornata lavorativa di 8 ore, non ad un giorno solare di 24 h).

E se l’attività fosse ripetitiva, per cui si debba tutti i giorni entrare in quel medesimo spazio confinato, con quei medesimi rischi, tutte le volte si dovrà ripetere l’informazione dei lavoratori per almeno una giornata? A mio avviso, oltre che a raddoppiarsi inutilmente il numero di giorni di lavoro (giacchè anche per un intervento di un giorno o meno è richiesto almeno un ulteriore giorno di formazione), si arriverà all’alienazione dei lavoratori che si sentiranno ripetere, a giorni alterni, sempre le stesse cose.

E poi siamo davvero sicuri che un giorno sia il tempo minimo necessario per trasferire ai lavoratori le conoscenze necessarie? Quali studi, ricerche, analisi, indagini di mercato avranno spinto il nostro legislatore ad usare il “giorno” come unità di misura non frazionabile dell’informazione negli spazi confinati?

E che la peperonata fosse particolarmente pesante è anche dimostrato dall’obbligo del successivo comma 2 di individuare un rappresentante del committente in possesso della formazione, informazione ed addestramento  di cui all’articolo 2, comma 1, lett. c) e f).

Peccato che la citata lett. c) non parli assolutamente di formazione, informazione e addestramento….

Devo ammettere che a questo punto la mia convinzione che il legislatore fosse in viaggio nell’iperuranio quando ha scritto questa norma ha traballato. Ammetto di aver dubitato.

Poi ho ripensato agli ultimi capolavori normativi di cui ci ha omaggiato e ora non vacillo più.

Pubblicato in: incidenti

La banalità dietro gli infortuni

Regole autogene: quando l’esperienza ci dice cosa fare

Quasi tutte le azioni che compiamo ogni giorno derivano dall’applicazione di regole o sono dettate dall’esperienza.

In genere le regole che ci costruiamo, se non derivano da assiomi o dogmi, sono anch’esse generate dall’esperienza. Per esempio, se in passato il vostro corpo si è trasformato nella cattedrale giubilare della dissenteria dopo una pantagruelica abbuffata di fichi rossi e succosi, probabilmente dentro di voi sarà possibile trovare traccia della generica regola che afferma che è opportuno fermarsi dopo aver ingerito solo un chilo di fichi.

Ovviamente anche esperienze positive possono generare regole, anzi, generalmente, tendiamo a ripetere con estrema facilità le esperienze che hanno avuto un felice esito.

Chiamerò queste regole, generate da esperienze vissute, siano esse positive che negative,“autogene”.

Prima banalità: noi impariamo dall’esperienza e sulla base di questa costruiamo delle regole (autogene) che perfezioniamo con l’esperienza stessa. Le regole autogene sono molto forti, nonostante nessuno ce le imponga. Questo non significa che siano buone: posso aver generato anche una cattiva regola dall’esperienza, ma ancora essa non ha fallito.

Regole esogene: quando gli altri ci dicono cosa fare

Non tutte le regole che osserviamo sono però dettate dall’esperienza. Una buona parte di esse arrivano dall’esterno e sono essenzialmente riservate ai casi in cui l’esperienza che si vivrebbe non applicando la regola, potrebbe essere estremamente negativa (per sé stessi o per gli altri).

Per esempio, ancora oggi io ho il sacro terrore di farmi il bagno subito dopo aver mangiato perché i miei genitori mi dicevano che era pericoloso. Seguire la regola mi ha insegnato che, aspettando un paio d’ore, non corro rischi ed, infatti, posso affermare con ragionevole certezza di non essere mai morto.

È altamente probabile che giungerò al termine della mia lunga esistenza (il mio obiettivo è di arrivare almeno fino al 2040, quando apriranno i dossier e potrò sapere chi ha ucciso JFK) senza aver mai avuto l’evidenza empirica della bontà del consiglio dei miei genitori (…ok, ho guardato su google e in effetti hanno ragione, ma quando ero piccolo pensavo che fosse un modo per costringermi a non stare sempre a mollo come una foca leopardo).

Attenzione: in questi casi la regola in realtà non genera un’esperienza, ma una non esperienza.

Sia chiaro: non è che l’esperienza sia sempre necessaria per decidere se compiere o meno un’azione… Non ho bisogno di andare a sfrittellarmi contro la macchina che mi precede per sapere quanto sia importante tenere una distanza di sicurezza. Tuttavia bisogna ammettere che quando non c’è l’esperienza, la scelta se seguire o meno una regola è meno tassativa (vedi l’esempio della distanza di sicurezza, che non mi risulta sia esattamente l’aspetto al quale gli automobilisti fanno più attenzione, nonostante le conseguenze che si rischiano di correre).

Queste regole che provengono dall’esterno e non dalla diretta esperienza, le chiamerò “esogene”.

Seconda banalità: le non esperienze non originano un bel nulla. Anzi, mentre rivolgiamo la massima attenzione al rispetto delle regole autogene, ci sentiamo liberi di discutere l’applicazione o meno delle regole esogene. Ne facciamo essenzialmente una questione di costi/benefici.

Regole endogene: quando decidiamo noi cosa fare

Le regole vigenti nei luoghi di lavoro sono esogene… il perché è presto detto: servono a tutelare le persone da gravi rischi per la loro incolumità e non ci può essere spazio per l’esperienza di un infortunio. Tutti le giudichiamo di buon senso e condivisibili (d’accordo, non tutte, ma la maggior parte sì) e magari siamo anche pronti ad ammettere che molte di queste le applicheremmo comunque, anche se non ci fosse la legge. Ma restano comunque esogene.

Partendo da queste, spesso ci costruiamo le “nostre” regole che in questo caso chiamerò “endogene” perché non sono autogene (in quanto non generate dall’esperienza), ma nemmeno esogene (pur essendo una derivazione di queste) perché le ho modificate in base al seguente ragionamento: sulla base della mia esperienza ritengo che lavorando così non mi farò male.

È il caso del lavoratore che non indossa i DPI perché sono scomodi e comunque non fondamentali o del datore di lavoro che non fa i controlli sull’impianto elettrico perchè è a norma.

Il fatto stesso che non succeda l’infortunio applicando la regola endogena ne conferma la bontà e più passa il tempo senza che l’infortunio accada, più le conferme aumentano.

Tuttavia, non tutti gli infortuni si verificano al primo colpo, per cui potrei essermi creato una regola che considero giusta fino a quando un evento, finora mai manifestatosi, non dimostra l’erroneità della regola.

Ma sulla base di quale esperienza abbiamo creato la regola endogena? Nessuna, perché non avevamo mai subito quell’infortunio nel momento in cui abbiamo creato la regola. In realtà abbiamo generato una regola sulla base di una non esperienza.

E guarda caso i rischi più gravi sono anche quelli meno percepibili. Sono quelli di cui le persone non hanno alcuna esperienza: atmosfere esplosive, elettricità, spazi confinati, agenti chimici, ecc. per i quali le nostre regole, costruite sulla base della non esperienza, valgono ben poco perché si tratta di fenomeni governati da leggi chimiche, fisiche o biologiche estremamente complesse, in cui solo la conoscenza può garantire la sicurezza.

Il problema è che noi siamo molto attenti nei confronti di ciò che pensiamo di conoscere, mentre non poniamo la stessa attenzione nei confronti di ciò che non conosciamo, anzi nel caso delle regole endogene, più passa il tempo, più ci convinciamo che esse sono corrette.

Terza banalità: l’infortunio non è voluto dalle persone che lo subiscono ed accade nonostante questo.

La truffa della percezione

L’ultimo aspetto di una banalità sorprendente è che noi approfondiamo fino alla nausea lo studio di ciò che conosciamo, ma al contempo diminuisce la nostra percezione di ciò che ci sfugge.

In pratica percepiamo la non esperienza come se fosse un’esperienza (se non mi è mai capitato vuol dire che va tutto bene), solo che, mentre quest’ultima ha dei contorni ben definiti, almeno in base a ciò che siamo stati capaci di percepire, la non esperienza non ha confini, non ha limiti.

Pretendiamo quindi di percepire l’infinito, un errore di valutazione che in alcuni casi può avere effetti catastrofici.

Quarta banalità: un infortunio, prima che accada, è una non esperienza.

Pubblicato in: incidenti

Consigli per un Natale sicuro

Se le ultime sterili polemiche politiche sul presepe vi sono scivolate addosso come acqua sulle piume di un papero e se siete riusciti ad evitare di essere precettati per l’annuale maratona tra i mercatini di Natale con la scusa del potenziale rischio di beccare un untore del virus AH1N1, la Commissione europea vi fornisce un ulteriore motivo per rifugiarvi cautelativamente su qualche isolotto sperduto del Pacifico in attesa che anche questo Natale passi, rinviando il problema all’anno successivo.

Infatti, da uno studio effettuato tra novembre 2007 e maggio 2009 dalla Commissione europea e le autorità di Ungheria, Germania, Slovacchia, Slovenia e Paesi Bassi su 196 ghirlande luminose, sono stati evidenziati gravi problemi di non conformità, con particolare riguardo alla sicurezza.

In particolare:

1.  il 25% delle ghirlande luminose non ha superato le prove di sicurezza per gli ancoraggi dei cavi. Ancoraggi inadeguati possono provocare un distacco dei cavi elettrici con alti rischi di scosse elettriche.

2.  il 23% delle ghirlande luminose non soddisfa il requisito della superficie della sezione trasversale. Ciò significa che il cavo è troppo sottile per le correnti elettriche che è destinato a sopportare, con conseguente aumento del rischio di surriscaldamento e di incendio.

3.  Il 28% non ha superato le prove di sicurezza riguardanti i cavi. Ciò significa che l’isolamento e le caratteristiche costruttive della ghirlanda sono tali da presentare rischi di scosse.

Praticamente una ghirlanda luminosa su 4 rischia di incendiarvi casa o di farvi provare l’ebbrezza del passaggio di una corrente di tensione a 220 V attraverso il vostro corpo.

Anche se tale analisi non comprendeva l’Italia tra le nazioni interessate, vale la pena ricordare che le merci in Europa circolano liberamente tra i paesi membri.

Proprio il Natale scorso mia madre voleva che riparassi una di queste catene luminose intermittenti per gli alberi di Natale alla quale si era staccata la spina (non conformità numero 1). Il cavo che mi si è parato davanti era composto da tre fili ciascuno di sezione micrometrica (motivo per il quale la spina si era staccata, non conformità numero 2) e poteva consentire sì e no il passaggio della corrente sufficiente ad alimentare una sola di quelle lampadine, contro le 100 effettivamente presenti.

Quando chiesi all’augusta genitrice di confessare dove avesse reperito una simile trappola, lei candidamente mi rispose di averla acquistata al supermercato dopo aver verificato che sulla confezione fosse stato apposto il marchio CE (questa era una palese bugia, mia madre non verificherebbe mai una cosa del genere, ma ad onor del vero il marchio CE era presente sulla confezione. Non sapremo mai la verità…).

Vale la pena ricordare che la marcatura CE non è sinonimo di conformità, essendo apposta unilateralmente dal produttore o dall’importatore, senza alcun controllo da parte di soggetti terzi, ma questo la mia ingenua fattrice non poteva saperlo e così si è ritrovata, con una modica cifra, un economico addobbo di Natale che rischiava di trasformare il nostro salotto in un confortevole rogo.

Dopo essere stato qualificato come “esagerato” e “professionalmente deformato” (incredibile come riscuota più credito presso i miei clienti che presso i miei genitori…), rivestito della lucente corazza della più assoluta e totale indifferenza ho provveduto a frullare l’addobbo nel secchio della spazzatura.

Ora, se non siete amanti del brivido come la mia mamma (alla quale tutto si perdona per le prelibatezze che è in grado di produrre al cenone di Natale), permettete che vi suggerisca alcuni semplici consigli da osservare per passare una serena festività senza la, pur allegra, compagnia dei Vigili del fuoco:

  1. Comprate ghirlande di Natale che, oltre all’obbligatorio marchio CE, riportino anche la certificazione di un organismo terzo di qualità (IMQ, TÜVGSecc.). Questi enti di certificazione effettuano controlli attraverso prove di isolamento e di tensione applicata fra le varie parti accessibili e le parti sotto tensione, nonché verifiche sulla capacità dei materiali impiegati di non propagare la fiamma e sulle temperature massime raggiunte durante il loro funzionamento;
  2. Siccome le prese elettriche a disposizione non sono mai sufficienti, ricorrete preferibilmente all’uso di ciabatte, anziché di prese doppie o triple, anch’esse munite di marchio di certificazione IMQ;
  3. Nel caso di luminarie da appendere all’aperto, verificare che sulla confezione sia specificato “per uso esterno”, che abbiano il cavo in gomma e che abbiano un grado di protezione almeno IP23;
  4. È preferibile che la catena luminosa sia provvista di trasformatore, in modo da evitare surriscaldamenti delle lampadine;
  5. Staccate sempre la spina prima di uscire di casa o di andare a letto;
  6. Per quanto riguarda l’albero di Natale, se propendete per acquistarne uno sintetico, verificare che sia del tipo autoestinguente. Se invece la scelta cade sul naturale, meglio adottarne uno vivo (che poi potrà essere ripiantato con vantaggi anche per l’ambiente), con tanto di radici. Se pur preferendo l’abete naturale, si sceglie di prendere un albero tagliato, fate molta attenzione agli aghi che, con il passare dei giorni, tendono a seccarsi, diventando estremamente combustibili.
    ATTENZIONE: questa non è un’esagerazione! In un ambiente chiuso, la combustione di un albero di Natale può far raggiungere il flash-over (il momento di inizio della combustione generalizzata) in meno di un minuto, come dimostrato efficacemente in questo video