Pubblicato in: cultura della sicurezza, incidenti, valutazione dei rischi

Una farfalla ci seppellirà

Nel 1684 E. Halley (sì, quello della cometa, tra le altre cose) andò a Cambridge per parlare con I. Newton (sì, quello delle leggi della dinamica, tra le altre cose) di una cosetta su cui si era fissato e quando ti fissi è brutto.

Tutto era iniziato una sera al pub. Halley e R. Hooke (sì, quello della legge sulla forza elastica, tra le altre cose) accettarono una scommessa su chi sarebbe stato il primo a trovare la legge matematica che descrive il moto dei pianeti intorno al sole (chi non fa scommesse del genere al pub con gli amici?) postulato da Keplero.

Hooke sosteneva di conoscere già la risposta, ma era quel tipo di amici ai quali devi sempre fare la tara di ciò che ti raccontano (ed infatti, non tira fuori la soluzione).

Siccome non riusciva a venirne a capo, Halley va a parlarne a Newton (ricorre cioè all’aiuto a casa… Di Newton), nella speranza che quello potesse dargli qualche dritta, un po’ di polvere puffa, suggerirgli una magicabula per vincere la scommessa e farsi il grosso con Hooke.

Qui viene il bello… inizia a parlarne a Newton e quello fa: «Ah sì, quella faccenda… L’ho risolta 5 anni fa! C’ho le carte qui, da qualche parte sulla scrivania!».

Newton aveva già risolto il problema del moto dei corpi in orbita (senza il quale oggi non avremmo le leggi della dinamica e quella di gravitazione universale, il calcolo infinitesimale e tante altre cosette utili), ma non avendo pubblicato nulla era come se tutto ciò non fosse mai accaduto (se non per Newton).

Facciamo un salto di quasi tre secoli. Siamo nel 2002 ad una conferenza stampa e il segretario della difesa statunitense D. Rumsfeld, alla domanda su legami tra governo iracheno e armi di distruzione di massa e terrorismo, risponde:

“Ci sono fatti noti conosciuti, le cose che sappiamo di sapere. Ci sono fatti ignoti conosciuti, vale a dire le cose che ora sappiamo di non sapere. Ma ci sono anche fatti ignoti sconosciuti, le cose che non sappiamo di non sapere.”

Considerando che l’Iraq non aveva armi di distruzione di massa, che lui lo sapeva e che doveva intortarla, per questa frase Rumsfeld ha vinto il premio Antani D’oro che la Fondazione Conte Mascetti assegna a chiunque riesca a giustificare una guerra con una supercazzola.

Ora, però, fermatevi un attimo a rileggere quello che ha detto Rumsfeld. Scoprirete che una bella fetta di epistemologia è racchiusa là dentro.

Per esempio, mentre per Halley la legge matematica che descriveva il moto delle orbite dei pianeti era un “fatto ignoto conosciuto” (cioè: «So cosa non so»), la stessa cosa non si poteva dire di Newton per il quale la medesima legge era un “fatto noto conosciuto” (cioè: «So cosa so»).

Quando facciamo una valutazione dei rischi, noi valutiamo solo i “fatti noti conosciuti”. Considerando che la maggioranza dei “fatti noti” è “conosciuta” ai più, non serve un vero esperto: quasi tutti sono in gradi di rendersi conto se c’è un rischio di caduta dall’alto o di natura meccanica o elettrica, ecc.

Una percentuale piuttosto elevata del lavoro di Consulente per la sicurezza lo potrebbe fare chiunque abbia un po’ di esperienza nel campo specifico in cui il consulente sta consigliando.

Le cose cambiano quando si supera il variabile confine dei “fatti noti conosciuti”.

Qui molte certezze vengono meno e si può cadere nelle sabbie mobili dei “fatti ignoti conosciuti” o risucchiati nel gorgo dei “fatti ignoti sconosciuti”. Eh già…

Quando ti trovi davanti ad una persona apparentemente inanimata all’interno di uno spazio confinato, o sai di non sapere o sei spacciato.

Ed in molti casi, purtroppo, è la seconda a prevalere: se non sai di non sapere, non farai nemmeno nulla per difenderti. I fatti ignoti sconosciuti sono semplicemente le domande che non sono ancora state poste. L’assenza totale di percezione (in molti casi) di rischi all’interno degli spazi confinati, accompagnata con la mancanza di conoscenza dei rischi propri degli spazi confinati è un esempio tipico di quello che fanno i “fatti ignoti sconosciuti”.

Chi invece sa di non sapere, idealmente si astiene dall’entrare nello spazio confinato, ma non sa che fare. E qui entriamo in gioco noi.

Infatti, quando si supera la soglia dei “fatti noti conosciuti”, quello è il momento in cui ci vuole l’esperto. L’esperto fa proprio questo di mestiere: incrementa l’area dei fatti noti conosciuti. È in grado di fare valutazioni dei rischi complesse; ha competenze che gli permettono di sapere che certe cose esistono e che devono essere tenute in considerazione; ha un bagagliaio pieno zeppo di soluzioni.

Qual è il problema? L’errore dell’esperto.

Quello che Rumsfeld non ha detto è che ci sono anche i “fatti noti sconosciuti” (cioè: «Non so ciò che so»). Secondo me sono i peggiori, perché sono i più comuni, quella che ci sono sempre e non si vedono praticamente mai, se non quando qualcosa ne appalesa l’esistenza.

La cosa brutta, brutta è che sbagliamo con rigore e serietà, dato che quella è la nostra materia, l’abbiamo studiata, ci hanno chiamato anche per quello… Un “fatto noto sconosciuto” non è altro che un “fatto noto conosciuto” in cui non siamo riusciti (per vari motivi) ad usare tutte le nostre risorse per risolvere il problema (pensate a tutti quei compiti in classe di fisica in cui conoscevate la teoria, avevate inquadrato il problema, ma che avete risolto in modo errato. Semplicemente perché non avete considerato un elemento minuscolo ma essenziale nella traccia del problema, ma non ne siete stati consapevoli finché non avete visto la correzione del professore).

Sono quei fatti che abbiamo sotto gli occhi, ma di cui non cogliamo la rilevanza. E non possiamo usare ciò che sappiamo se gli elementi che analizziamo ci appaiono irrilevanti e dunque vengono scartati.

Il guaio è che, quando ci si incappa, prima che ci si accorga del problema per noi quelli sono “fatti noti conosciuti” e li trattiamo come tali.

Come dico sempre nei miei corsi di formazione sulla valutazione dei rischi: «Quando guardate una scaffalatura alta, dovete chiedervi “Dov’è la scala che serve a raggiungere i ripiani più alti?”».

Volete esempi di “fatti noti sconosciuti”?

11 settembre 2001 (sì, quello dell’attentato): se tutti gli arei fossero stati dotati di cabine di pilotaggio protette da porte blindate, tutto quello che sappiamo di quell’evento non sarebbe mai avvenuto. Attentatori armati di taglierino non sarebbero mai potuti entrare nel cock-pit, sopprimere i piloti e prendere il comando degli aerei.

Immaginate un modello causale lineare tipo “domino”: con una misura così semplice e a basso costo, avreste impedito che l’attentato dell’11 settembre 2001 avvenisse con le modalità che conoscete, Rumsfeld non avrebbe detto quella frase, avreste evitato un paio di guerre in medio oriente e qualche centinaio di migliaio di morti.

Questo è il fantastico mondo dei modelli causali lineari: basta mettere una barriera e le tessere di domino a valle restano in piedi.

Tuttavia, 14 anni dopo aver evitato il più grave attentato della storia moderna (cosa di cui, però, nessuno vi avrebbe ringraziato, non essendo mai accaduto), il copilota di un aereo di linea in volo tra Barcellona e Dusseldorf avrebbe usato la vostra porta per suicidare sé stesso, portandosi dietro, già che c’era, le 150 persone che si trovavano a bordo.

Fin qui è facile: l’analisi retrospettiva (hindsight bias) fa apparire tutto prevedibile e prevenibile.

Lascio ai risolutori particolarmente abili il compito di dimostrare mediante congetture come il ricorso alla presenza contemporanea e costante di almeno due piloti nella cabina di pilotaggio, ovvero la misura posta a difesa del ripetersi di eventi come quello appena su narrato, generi nuovi scenari incidentali.

Benvenuti nel magico mondo delle complessità, nel quale ogni soluzione genera nuovi problemi, la ridondanza aumenta la complessità e non si possono valutare e impedire tutti i rischi, dove gli errori sono latenti, dove causa ed effetto non sono lineari ed in cui il battito d’ali delle farfalle è preso molto sul serio.

Ecco, in conclusione, quello che per me è un altro dei grossi problemi degli approcci basati sulle valutazioni dei rischi, ovvero sulla conoscenza: a fronte di un solo modo di funzionamento che garantisca il successo e che consiste nel valutare bene i fatti noti conosciuti, ne abbiamo ben altri tre che possono danneggiarci e nei confronti dei quali possiamo fare poco o nulla.

Una farfalla ci seppellirà.

Butterfly effect

 

10 pensieri riguardo “Una farfalla ci seppellirà

  1. Hai veramente uno stile particolarmente accattivante di raccontare il nostro lavoro.
    Ti faccio tanti complimenti Andrea, è un gran piacere leggerti.
    PS: lo sai vero che tirando fuori la storia degli aerei sulle torri gemelle potresti avere risposte del tipo:
    “se non l’avessero inventato quell’attentato, non sarebbe mai avvenuto; SVEGLIA!1!1!!1!….” 🙂

    "Mi piace"

Rispondi a Marcela Puente Cancella risposta

Inserisci i tuoi dati qui sotto o clicca su un'icona per effettuare l'accesso:

Logo di WordPress.com

Stai commentando usando il tuo account WordPress.com. Chiudi sessione /  Modifica )

Google photo

Stai commentando usando il tuo account Google. Chiudi sessione /  Modifica )

Foto Twitter

Stai commentando usando il tuo account Twitter. Chiudi sessione /  Modifica )

Foto di Facebook

Stai commentando usando il tuo account Facebook. Chiudi sessione /  Modifica )

Connessione a %s...