Fondazione Arturo Pinna Pintor SIQuAS VRQ
Dalla qualità percepita alla percezione dell'errore medico - Metodologia integrata per l'individuazione dell'errore medico
Sabato 15 Ottobre 2005
Aula Fondazione Arturo Pinna Pintor
Via Vespucci 61 – Torino

CONSIDERAZIONI FINALI

Prof. Sebastiano Bagnara

Docente di Psicologia Cognitiva al Politecnico di Milano

Ci  si può chiedere perché la discussione sugli errori abbia avuto un così grande successo in aviazione.  In aviazione, si sono create due condizioni particolari:  1) Si è creato uno spazio libero di discussione che è una delle condizioni che per prevenire gli errori, e, soprattuto, per imparare dagli errori. 2) In verità, nello spazio libero di discussione, raramente viene raccontato l’errore grave, quello che finisce in un incedente serio, perché il pilota che lo ha commesso spesso muore. (Ecco una cosa differenza sostanziale fra medico e pilota: il pilota è sempre la prima vittima di un proprio errare, e il medico fortunatamente non ha la stessa sorte.) Nello spazio libero di discussione, quindi, si parla certamente di eventi che non sono andati come ci si aspettava. Ma il fuoco è su come è effettivamente andato, su come le persone coinvolte sono state capaci di correggerlo ed evitare l’incidente. L’importante non è discutere su come un aereo è caduto, ma come si è riparato all’errore commesso, di come si è corretto “in fase”, e infine si è riusciti a portare a buon fine un evento potenzialmente disastroso.
Io credo che la vostra comunità di pratica guadagnerebbe tanto se smettesse di parlare di errore medico, (è già molto fortunata in quanto i suoi errori non li paga immediatamente e direttamente),  ma cominciasse a parlare di eventi avversi, e avesse la capacità di riflettere su tutte le volte che le cose vanno bene, nonostante qualcosa non abbia funzionato. Parlasse e discutesse dei cosiddetti “near misses”, gli incidenti mancati.
Ad un  recente convegno, a  Creta, c’era il direttore il più grande complesso accademico di Olanda, il quale insisteva sulla necessità di reporting e analisi dell’errore, e sui vari metodi di rilevazione e attribuzione delle cause umane, organizzative, tecnologiche e culturali dell’errrore. Penso che tutta questa attività sia utile e meritoria, ma ritengo che il punto centrale sia non tanto stabilire le cause, ma come le persone, badate bene, non solo la persona, ma come il gruppo, la comunità si accorge che viene commesso l’errore e quali sono i corsi di azioni che vengono messe in atto per risolvere la situazione critica che si è creata. Certo è utile sapere il modo in cui è stato commesso l’errore, serve di più che si porti alla luce, che si comunichi, affinché gli altri imparino da questa esperienza, quale è la soluzione che è stata adottata con successo.  Il miglioramento delle condizioni di lavoro, al fine di prevenire e ridurre gli errori, certo trae giovamento dal sapere dove e perché gli eventi avversi capitano, ma conoscere come si è usciti dalla situazione critica già offre indicazioni concrete per le soluzioni migliorative. Si passa dal conoscere le cause, al sapere già le soluzioni.
Spostare l’attenzione dalle cause alle soluzioni mi sembra particolarmente utile per un altro motivo. Anche io ritengo che sia utile ed importante che, per quanto riguarda l’analisi degli incidenti e degli errori, nei sistemi sanitari si faccia riferimento all’esperienza accumulata e sviluppata da tanto empo e con relativo successo in altri sistemi e settori. Mi riferisco specialmente alle esperienze, modelli e metodi di analisi sviluppati nell’avionica, nei trasporti aerei, ferroviari, nella chimica, nel nucleare, dove tutti i modelli di analisi dell’errore sono stati sviluppati. Anche Reason, spesso richiamato oggi, ha sviluppato le sue teorie e le sue illuminanti intuizioni nello studio di sistemi differenti da quelli sanitari. Ma quasi tutti i modelli e i metodi che oggi si utilizzano nei sistemi sanitari sono derivati fondamentalmente dalle esperienze sviluppate in situazioni ad alto rischio caratteristiche nel ciclo chimico, e, soprattutto nel nucleare.
Ad esempio, personalmente, ho cominciato ad occuparmi di errore umano alla fine degli anni settanta, quando accadde l’incidente di Three Miles Island, dopo la pubblicazione del rapporto della Commissione Presidenziale (Rapporto Kemeny) che indicava nell’errore umano la causa di quell’incidente. E’ forse utile osservare che prima del rapporto Kemeny gli psicologi non avevano diritto di parola nell’analisi degli incidenti. Era terreno di caccia esclusivo degli ingegneri. La stessa cultura, in qualche modo, responsabile dell’incidente era impegnata nell’analizzarlo. Come ha ricordato Riccardo Tartaglia poco fa, non si fa molta strada e non si impara molto se chi fa l’errore e chi lo analizza partecipa della stessa cultura. E’ un rischio che vedo anche in riferimento agli errori medici, quando si sostiene che per capirli e analizzarli è indispensabile la competenza medica.
Ma tornando la ragionamento sui modelli di riferimento, vorrei ribadire che sono tutti debitori dell’esperienza nel nucleare, successivamente arricchita dalle esperienze nei sistemi di trasporti (spaziali, aerei, navali, ferroviari, su strada), chimici e petrolchimici.
Ho un dubbio, che ho espresso già un’altra volta a  marzo in occasione della Conferenza HEPS di Firenze. Dubito che il mondo medico possa trarre il profitto aspettato e sperato per il sistema sanitario dall’utilizzo modelli e metodi che sono stati sviluppati negli altri settori, appena ricordati. C’è una formidabile differenza fra l’incidente o evento avverso che avviene in medicina rispetto all’evento avverso che avviene, ad esempio, nell’ambito ferroviario, per non dire nel trasporto aereo o nel nucleare: rarissimamente l’evento avverso in medicina ammazza tante persone. Non raggiunge mai le dimensioni del disastro.
Nel sistemi sanitari si hanno tantissimi piccoli eventi avversi, sono endemici, ma l’evento avverso colpisce una persona, quasi mai, è rarissimo, due o tre. In tutti i sistemi ad alto rischio, invece, quando avviene l’evento avverso e va male, beh, i morti si contano a decine, a centinaia.  Questo fa differenza, una considerevole differenza.
Ma c’è un altro elemento di differenza. Ne potrei enumerare tanti, ma ce cito uno in particolare: a mio parere, ben raramente un operatore degli altri sistemi, avionico e nucleare, è comparabile per passione e coinvolgimento emotivo alla passione e coinvolgimento emotivo del personale impegnato nella cura delle persone. Non riesco ad immaginare che un operatore chimico in sala di controllo abbia con il processo che controlla un rapporto simile per qualità ed intensità a quello che un medico o un infermiere hanno con un bambino che sta male. Non si dà quasi mai il caso che uno che ha commesso un errore in altri sistemi, si sia suicidato. E’ un fatto che può avvenire solo quando una professione è caratterizzata da un’alta passione professionale e non solo.
Adesso c’è molta tecnologia in medicina. E la tecnologia deresponsabilizza un po’ il medico perché tiene distante dal malato. Però. rimane vero anche che una grande parte degli errori o eventi avversi in medicina avvengono perché non vi sono barriere fisiche fra l’operatore e l’oggetto della sua operazione: il contatto diretto è spesso diretto. E’ raro che vi sia contatto diretto nei sistemi ad alto rischio: non esiste che l’operatore della chimica tocchi il processo chimico. Esiste invece che chi opera sul cuore tocchi il cuore. E fa un’enorme differenza.
Un’ultima cosa. Ha ragione chi oggi osservava e riportava quella frase che diceva che i sistemi sanitari sono tante botteghe, tanti piccoli luoghi artigianali, anche se ad alta specializzazione. Se conveniamo su questo, come possiamo pensare che si possano applicare all’artigianato metodi sviluppati per la grande impresa, per i grandi impianti? Proprio le profonde differenze qualitive con gli altri sistemi, debbono spingere verso la ricerca di nuovi modelli e nuovi metodi di spiegazione, analisi, prevenzione e soluzione degli eventi avversi nei sistemi sanitari. Anche Reason, solo pochi mesi fa, ha osservato che la peculiarità dei sistemi sanitari e, io sottolineo, delle persone vi lavorano, ci deve rendere cauti dall’importare i modelli dei disastri per capire l’endemia degli eventi avversi in medicina.
Credo allora che veramente sia compito di questa comunità, che è iperappassionata, perchè non solo è appassionata come la grandissima parte di coloro che operano nei sistemi sanitari, ma mette un’extra-passione capire gli eventi avversi, cominci a ragionare sulle proprie differenze, non per giustificarsi, ma trovare strumenti migliori e più adatti per studiare e correggere gli eventi avversi che perseguitano, endemicamente, i propri luoghi di lavoro.
Mi occore dire anche in’altra cosa, che mi è venuta in mente stamattina, quando veniva posto il problema dei limits of settlement, cioè l’ammontare massimo dei soldi che si possono pretendere in caso di evento avverso. Ecco, mi sono ricordato un fatto molto interessante. Forse sapete che nel sistema di trasporto aereo si è arrivati già negli anni venti alla convenzione di Varsavia, che stabilisce appunto i limits of settlements in quel sistema. Allora il trasporto non era particolarmente sicuro e chi viagggiava era molto ricco, per cui ogni volta che cascava un aereo le assicurazioni dovevano pagare l’iradiddio: tutte le compagnie erano sull’orlo del fallimento. La soluzione convenuta a Varsavia (la trovate ancora scritta sul retro del biglietto aereo IATA) fu, ed è, un massimo di liability: più di tanti soldi non si possono ottenere per le perdite conseguenti ad eventi avversi, indipendentemente dalla ricchezza delle persone che le hanno subite: così, per esempio, se perdete un bagaglio più di tanti soldi non vi danno, a prescindere da cosa vi abbiate messo. Forse su una soluzione simile si protrebbe iniziare a ragionare, perché ha il merito di essere più equa della situazione attuale, dove i poveri subiscono, forse di più, i danni degli eventi avversi, ma hanno minori opportunità di rivalsa.
Un’ultima cosa, credo importante. Nel suo intervento, il procuratore Laudi ha fornito indicazioni molto importanti per la costituzione dello spazio di libera discussione e di non punibilità. In questo spazio, non occorre riportare gli errori, che forse non sono neanche particolarmente interessanti per migliorare un sistema. Si riporti invece e si discuta di quando ci si è accorti dell’errore e quale soluzioni abbiamo adottato. Discutere di successi nell’affrontare eventi avversi non credo proprio sia penalmente rilevante.
Vorrei concludere ringraziando la Fondazione Pinna Pintor per avermi concesso un’opportunità unica di apprendimento e la fortuna di aver preso parte a un evento che, assieme ad altre inzitiative, sempre più frequenti in questi ultimi tempi, segna la nascita di una nuova comunità di pratica che ha come missione e visione il miglioramento della qualità della proprio attività professionale e la sicurezza del paziente. Veramente, grazie di cuore e di intelletto.



[atti on line]
[home]
last update: 2005/12/01 Document made with Nvu