CONSIDERAZIONI FINALI
Prof. Sebastiano Bagnara
Docente di Psicologia Cognitiva al Politecnico di Milano
Ci si può chiedere perché la discussione sugli
errori abbia avuto un così grande successo in aviazione.
In aviazione, si sono create due condizioni particolari: 1) Si
è creato uno spazio libero di discussione che è una delle
condizioni che per prevenire gli errori, e, soprattuto, per imparare
dagli errori. 2) In verità, nello spazio libero di discussione,
raramente viene raccontato l’errore grave, quello che finisce in
un incedente serio, perché il pilota che lo ha commesso spesso
muore. (Ecco una cosa differenza sostanziale fra medico e pilota: il
pilota è sempre la prima vittima di un proprio errare, e il
medico fortunatamente non ha la stessa sorte.) Nello spazio libero di
discussione, quindi, si parla certamente di eventi che non sono andati
come ci si aspettava. Ma il fuoco è su come è
effettivamente andato, su come le persone coinvolte sono state capaci
di correggerlo ed evitare l’incidente. L’importante non
è discutere su come un aereo è caduto, ma come si
è riparato all’errore commesso, di come si è
corretto “in fase”, e infine si è riusciti a portare
a buon fine un evento potenzialmente disastroso.
Io credo che la vostra comunità di pratica guadagnerebbe tanto
se smettesse di parlare di errore medico, (è già molto
fortunata in quanto i suoi errori non li paga immediatamente e
direttamente), ma cominciasse a parlare di eventi avversi, e
avesse la capacità di riflettere su tutte le volte che le cose
vanno bene, nonostante qualcosa non abbia funzionato. Parlasse e
discutesse dei cosiddetti “near misses”, gli incidenti
mancati.
Ad un recente convegno, a Creta, c’era il direttore
il più grande complesso accademico di Olanda, il quale insisteva
sulla necessità di reporting e analisi dell’errore, e sui
vari metodi di rilevazione e attribuzione delle cause umane,
organizzative, tecnologiche e culturali dell’errrore. Penso che
tutta questa attività sia utile e meritoria, ma ritengo che il
punto centrale sia non tanto stabilire le cause, ma come le persone,
badate bene, non solo la persona, ma come il gruppo, la comunità
si accorge che viene commesso l’errore e quali sono i corsi di
azioni che vengono messe in atto per risolvere la situazione critica
che si è creata. Certo è utile sapere il modo in cui
è stato commesso l’errore, serve di più che si
porti alla luce, che si comunichi, affinché gli altri imparino
da questa esperienza, quale è la soluzione che è stata
adottata con successo. Il miglioramento delle condizioni di
lavoro, al fine di prevenire e ridurre gli errori, certo trae
giovamento dal sapere dove e perché gli eventi avversi capitano,
ma conoscere come si è usciti dalla situazione critica
già offre indicazioni concrete per le soluzioni migliorative. Si
passa dal conoscere le cause, al sapere già le soluzioni.
Spostare l’attenzione dalle cause alle soluzioni mi sembra
particolarmente utile per un altro motivo. Anche io ritengo che sia
utile ed importante che, per quanto riguarda l’analisi degli
incidenti e degli errori, nei sistemi sanitari si faccia riferimento
all’esperienza accumulata e sviluppata da tanto empo e con
relativo successo in altri sistemi e settori. Mi riferisco specialmente
alle esperienze, modelli e metodi di analisi sviluppati
nell’avionica, nei trasporti aerei, ferroviari, nella chimica,
nel nucleare, dove tutti i modelli di analisi dell’errore sono
stati sviluppati. Anche Reason, spesso richiamato oggi, ha sviluppato
le sue teorie e le sue illuminanti intuizioni nello studio di sistemi
differenti da quelli sanitari. Ma quasi tutti i modelli e i metodi che
oggi si utilizzano nei sistemi sanitari sono derivati fondamentalmente
dalle esperienze sviluppate in situazioni ad alto rischio
caratteristiche nel ciclo chimico, e, soprattutto nel nucleare.
Ad esempio, personalmente, ho cominciato ad occuparmi di errore umano
alla fine degli anni settanta, quando accadde l’incidente di
Three Miles Island, dopo la pubblicazione del rapporto della
Commissione Presidenziale (Rapporto Kemeny) che indicava
nell’errore umano la causa di quell’incidente. E’
forse utile osservare che prima del rapporto Kemeny gli psicologi non
avevano diritto di parola nell’analisi degli incidenti. Era
terreno di caccia esclusivo degli ingegneri. La stessa cultura, in
qualche modo, responsabile dell’incidente era impegnata
nell’analizzarlo. Come ha ricordato Riccardo Tartaglia poco fa,
non si fa molta strada e non si impara molto se chi fa l’errore e
chi lo analizza partecipa della stessa cultura. E’ un rischio che
vedo anche in riferimento agli errori medici, quando si sostiene che
per capirli e analizzarli è indispensabile la competenza medica.
Ma tornando la ragionamento sui modelli di riferimento, vorrei ribadire
che sono tutti debitori dell’esperienza nel nucleare,
successivamente arricchita dalle esperienze nei sistemi di trasporti
(spaziali, aerei, navali, ferroviari, su strada), chimici e
petrolchimici.
Ho un dubbio, che ho espresso già un’altra volta a marzo in occasione della
Conferenza HEPS
di Firenze. Dubito che il mondo medico possa trarre il profitto
aspettato e sperato per il sistema sanitario dall’utilizzo
modelli e metodi che sono stati sviluppati negli altri settori, appena
ricordati. C’è una formidabile differenza fra
l’incidente o evento avverso che avviene in medicina rispetto
all’evento avverso che avviene, ad esempio, nell’ambito
ferroviario, per non dire nel trasporto aereo o nel nucleare:
rarissimamente l’evento avverso in medicina ammazza tante
persone. Non raggiunge mai le dimensioni del disastro.
Nel sistemi sanitari si hanno tantissimi piccoli eventi avversi, sono
endemici, ma l’evento avverso colpisce una persona, quasi mai,
è rarissimo, due o tre. In tutti i sistemi ad alto rischio,
invece, quando avviene l’evento avverso e va male, beh, i morti
si contano a decine, a centinaia. Questo fa differenza, una
considerevole differenza.
Ma c’è un altro elemento di differenza. Ne potrei
enumerare tanti, ma ce cito uno in particolare: a mio parere, ben
raramente un operatore degli altri sistemi, avionico e nucleare,
è comparabile per passione e coinvolgimento emotivo alla
passione e coinvolgimento emotivo del personale impegnato nella cura
delle persone. Non riesco ad immaginare che un operatore chimico in
sala di controllo abbia con il processo che controlla un rapporto
simile per qualità ed intensità a quello che un medico o
un infermiere hanno con un bambino che sta male. Non si dà quasi
mai il caso che uno che ha commesso un errore in altri sistemi, si sia
suicidato. E’ un fatto che può avvenire solo quando una
professione è caratterizzata da un’alta passione
professionale e non solo.
Adesso c’è molta tecnologia in medicina. E la tecnologia
deresponsabilizza un po’ il medico perché tiene distante
dal malato. Però. rimane vero anche che una grande parte degli
errori o eventi avversi in medicina avvengono perché non vi sono
barriere fisiche fra l’operatore e l’oggetto della sua
operazione: il contatto diretto è spesso diretto. E’ raro
che vi sia contatto diretto nei sistemi ad alto rischio: non esiste che
l’operatore della chimica tocchi il processo chimico. Esiste
invece che chi opera sul cuore tocchi il cuore. E fa un’enorme
differenza.
Un’ultima cosa. Ha ragione chi oggi osservava e riportava quella
frase che diceva che i sistemi sanitari sono tante botteghe, tanti
piccoli luoghi artigianali, anche se ad alta specializzazione. Se
conveniamo su questo, come possiamo pensare che si possano applicare
all’artigianato metodi sviluppati per la grande impresa, per i
grandi impianti? Proprio le profonde differenze qualitive con gli altri
sistemi, debbono spingere verso la ricerca di nuovi modelli e nuovi
metodi di spiegazione, analisi, prevenzione e soluzione degli eventi
avversi nei sistemi sanitari. Anche Reason, solo pochi mesi fa, ha
osservato che la peculiarità dei sistemi sanitari e, io
sottolineo, delle persone vi lavorano, ci deve rendere cauti
dall’importare i modelli dei disastri per capire l’endemia
degli eventi avversi in medicina.
Credo allora che veramente sia compito di questa comunità, che
è iperappassionata, perchè non solo è appassionata
come la grandissima parte di coloro che operano nei sistemi sanitari,
ma mette un’extra-passione capire gli eventi avversi, cominci a
ragionare sulle proprie differenze, non per giustificarsi, ma trovare
strumenti migliori e più adatti per studiare e correggere gli
eventi avversi che perseguitano, endemicamente, i propri luoghi di
lavoro.
Mi occore dire anche in’altra cosa, che mi è venuta in
mente stamattina, quando veniva posto il problema dei limits of
settlement, cioè l’ammontare massimo dei soldi che si
possono pretendere in caso di evento avverso. Ecco, mi sono ricordato
un fatto molto interessante. Forse sapete che nel sistema di trasporto
aereo si è arrivati già negli anni venti alla convenzione
di Varsavia, che stabilisce appunto i limits of settlements in quel
sistema. Allora il trasporto non era particolarmente sicuro e chi
viagggiava era molto ricco, per cui ogni volta che cascava un aereo le
assicurazioni dovevano pagare l’iradiddio: tutte le compagnie
erano sull’orlo del fallimento. La soluzione convenuta a Varsavia
(la trovate ancora scritta sul retro del biglietto aereo IATA) fu, ed
è, un massimo di liability: più di tanti soldi non si
possono ottenere per le perdite conseguenti ad eventi avversi,
indipendentemente dalla ricchezza delle persone che le hanno subite:
così, per esempio, se perdete un bagaglio più di tanti
soldi non vi danno, a prescindere da cosa vi abbiate messo. Forse su
una soluzione simile si protrebbe iniziare a ragionare, perché
ha il merito di essere più equa della situazione attuale, dove i
poveri subiscono, forse di più, i danni degli eventi avversi, ma
hanno minori opportunità di rivalsa.
Un’ultima cosa, credo importante. Nel suo intervento, il
procuratore Laudi ha fornito indicazioni molto importanti per la
costituzione dello spazio di libera discussione e di non
punibilità. In questo spazio, non occorre riportare gli errori,
che forse non sono neanche particolarmente interessanti per migliorare
un sistema. Si riporti invece e si discuta di quando ci si è
accorti dell’errore e quale soluzioni abbiamo adottato. Discutere
di successi nell’affrontare eventi avversi non credo proprio sia
penalmente rilevante.
Vorrei concludere ringraziando la Fondazione Pinna Pintor per avermi
concesso un’opportunità unica di apprendimento e la
fortuna di aver preso parte a un evento che, assieme ad altre
inzitiative, sempre più frequenti in questi ultimi tempi, segna
la nascita di una nuova comunità di pratica che ha come missione
e visione il miglioramento della qualità della proprio
attività professionale e la sicurezza del paziente. Veramente,
grazie di cuore e di intelletto.
last
update:
2005/12/01 |
|