Responsabilità medica per danni cagionati dall’intelligenza artificiale
di Mirko Faccioli, Avvocato e Professore associato di diritto privato Scarica in PDFAbstract: A fronte del sempre più massiccio utilizzo di sistemi di IA in medicina, occorre verificare se le questioni emergenti in tale contesto possano essere affrontate in maniera adeguata con lo strumentario normativo attualmente offerto dall’ordinamento o se quest’ultimo necessiti di essere riformato per rispondere al meglio alle sfide sollevate dall’ingresso del fattore tecnologico.
Dopo i profondi cambiamenti apportati in via normativa dalla l. n. 24/2017 (d’ora in avanti, Legge Gelli-Bianco) e dalla l. n. 219/2017, dal restatement giurisprudenziale costituito dalle pronunce della Suprema Corte di “San Martino 2019”, e da ultimo dalla pandemia da Covid, il diritto della responsabilità civile in ambito sanitario deve ora confrontarsi con le sfide lanciate dal sempre più massiccio impiego dell’intelligenza artificiale (d’ora in avanti, IA) in medicina.
Se da un lato incrementa notevolmente la qualità e l’efficienza delle cure, producendo altresì considerevoli vantaggi dal punto di vista economico, la capacità del sistema intelligente di agire in autonomia rispetto alla direzione e al controllo dell’uomo, apprendere automaticamente tramite machine learning e deep learning, nonché produrre risultati caratterizzati da opacità (black box) per l’osservatore umano, impone infatti di chiedersi se la vigente disciplina della medical malpractice sia in grado di rispondere adeguatamente alle nuove questioni emergenti in questo ambito.
L’autonomia, l’imprevedibilità e l’incontrollabilità dei sistemi di IA sollevano infatti la necessità di trovare un soddisfacente punto di equilibrio fra diverse esigenze: da un lato, tali elementi devono giocare un ruolo nella ricostruzione del regime della responsabilità degli erogatori delle cure mediche, che altrimenti sarebbero disincentivati ad adottare l’IA, con tutti i benefici che questa comporta, per il timore di dover rispondere di accadimenti che fuoriescono dal loro controllo; dall’altro, va tenuto in considerazione l’interesse del paziente, danneggiato da un sistema di IA, a godere di una tutela non inferiore di quella normalmente assicurata ai pazienti danneggiati da un trattamento tradizionale.
Sul piano più strettamente tecnico, l’impiego dell’IA in sanità impone innanzitutto di interrogarsi sulla qualificazione dell’attività stricto sensu medica svolta dal professionista sanitario nell’ambito della distinzione fra prestazioni di mezzi e prestazioni di risultato, con ciò che ne consegue in punto di ricostruzione della responsabilità dell’operatore. Sebbene l’attività in discorso sia generalmente considerata, in virtù delle imperfezioni della scienza medica e dell’imprevedibilità delle reazioni dell’organismo umano, l’esempio paradigmatico del primo tipo di obbligazioni, vi sono, infatti, diverse ipotesi nelle quali la giurisprudenza ricostruisce un’obbligazione di risultato in capo al medico o, comunque, elabora ed impiega regole operazionali che finiscono per produrre esiti applicativi del tutto simili (si tratta, in particolare, dei trattamenti di natura estetica, delle cure odontoiatriche e dei c.d. interventi di facile esecuzione). L’idea di fondo sottesa a questi indirizzi giurisprudenziali è che l’esecuzione di determinati trattamenti sanitari è presieduta da regole tecniche molto specifiche e altamente vincolanti, al punto da potersi istituire uno stretto collegamento tra il rispetto di quelle regole e il raggiungimento di un certo esito clinico e, di conseguenza, tra il fallimento delle cure da un lato e la sussistenza di un errore nell’esecuzione del trattamento dall’altro.
Per quanto l’IA possa incrementare l’accuratezza e l’efficacia dell’intervento medico, non sembra, però, che il suo utilizzo imponga sic et simpliciter di sviluppare un siffatto ragionamento, avulso dalle circostanze del caso concreto. L’impiego dell’IA pare piuttosto costituire un fattore neutrale rispetto alla qualificazione della natura della prestazione sanitaria, che in assenza di ulteriori elementi idonei a ricondurla nell’ambito delle prestazioni di risultato dovrebbe normalmente rientrare, secondo la generale tendenza già messa in luce, nell’ambito delle prestazioni di mezzi, la responsabilità per l’inadempimento delle quali è notoriamente dominata dal criterio della colpa parametrata sul canone della diligenza professionale ex art. 1176, comma 2°, c.c. e sul rispetto delle linee guida e delle buone pratiche clinico-assistenziali di cui all’art. 5 della Legge Gelli-Bianco.
Nell’ottica della responsabilità colposa, si deve escludere che il medico debba rispondere del malfunzionamento di un sistema di IA che fuoriesce dall’ambito del proprio controllo in virtù del suo elevato grado di autonomia e di opacità, la sua responsabilità rimanendo circoscritta alle sole ipotesi in cui il danno sia derivato da uno scorretto utilizzo della macchina imputabile alla propria negligenza. Esemplificativamente, il personale sanitario può essere ritenuto responsabile per essersi avvalso dell’IA senza avere le competenze necessarie, per avere utilizzato un sistema intelligente nella consapevolezza o nella colpevole ignoranza della sua difettosità, o ancora per non avere rilevato la scorrettezza delle indicazioni fornite dalla macchina nei limiti in cui questa fosse rilevabile con una verifica diligente.
Una parte della dottrina ha peraltro delineato soluzioni di segno contrario, fondate sul richiamo alla disciplina codicistica delle forme speciali di responsabilità extracontrattuale improntate a criteri di imputazione di tipo oggettivo o semi-oggettivo.
Secondo una prima corrente di pensiero, chi si avvale di un sistema di IA risponderebbe delle azioni dello stesso in quanto l’uno e l’altro sarebbero assimilabili, in via di interpretazione analogica, a preponente e preposto ai sensi dell’art. 2049 c.c., a precettore ed allievo ai sensi dell’art. 2048, comma 2°, c.c. o a proprietario ed animale ai sensi dell’art. 2052 c.c. Questa impostazione si rivela, però, inattendibile quando si osserva che le norme testé richiamate sono state pensate e calibrate avendo riguardo alle specificità dell’intelligenza naturale, umana o animale, sicché non sembrano poter essere fruttuosamente trasposte al contesto dell’intelligenza macchinica.
Appare ugualmente poco attendibile la riconduzione delle prestazioni sanitarie eseguite tramite l’IA sotto il regime dell’art. 2050 c.c. Già ampiamente controversa in termini generali, la qualificazione dell’attività medica quale attività pericolosa ai sensi della norma testé richiamata risulta essere, infatti, del tutto implausibile quando la stessa si accompagna all’impiego di soluzioni tecnologiche avanzate in grado di accrescere considerevolmente l’accuratezza e la sicurezza delle cure.
Maggiormente persuasiva appare, almeno a prima vista, la tesi che ritiene applicabile alle fattispecie in esame la disciplina dell’art. 2051 c.c. sul danno da cose in custodia. Anch’essa può essere, tuttavia, efficacemente contestata osservando come anche una interpretazione in senso estensivo della norma mantenga intatta la condizione del collegamento fra l’evento dannoso e le dinamiche dello stato o della condizione della cosa e soprattutto l’elemento del controllo umano, per l’appunto assente nelle fattispecie di nostro interesse.
Contro l’applicabilità delle forme speciali di responsabilità previste negli artt. 2048 ss. c.c. alle fattispecie di nostro interesse può essere, infine, evidenziato che l’art. 7, comma 3°, della Legge Gelli-Bianco sottopone esplicitamente la responsabilità della figura professionale di gran lunga prevalente nel mondo della sanità, il medico ausiliario della struttura sanitaria, alla disciplina della responsabilità per colpa tratteggiata dall’art. 2043 c.c. Ciò sembra precludere operazioni ermeneutiche dirette ad assoggettare la responsabilità in esame a diverse e più rigorose previsioni normative, specialmente se si considera che la disciplina de qua è stata introdotta allo scopo di contrastare il fenomeno della medicina difensiva alleggerendo la pressione giudiziaria gravante sul personale medico.
Il regime di responsabilità del personale medico esposto finora peraltro non si traduce in un vuoto di tutela per il paziente danneggiato dal difettoso funzionamento dell’IA, quest’ultimo potendo sempre utilmente rivolgere la propria pretesa risarcitoria nei confronti della struttura sanitaria. L’ente nosocomiale può infatti andare incontro, oltre e anche a prescindere dalla responsabilità indiretta per le condotte del personale medico operante al suo interno, ad una diretta e autonoma responsabilità per c.d. difetto di organizzazione che discende dall’inadempimento dell’obbligo, scaturente in capo al nosocomio in virtù del contratto di spedalità intercorrente con i malati, avente per oggetto la predisposizione di un contesto organizzativo adeguato nel quale accoglierli.
In questo scenario, l’ente nosocomiale è tenuto a sottoporre il proprio equipaggiamento tecnico a generali procedure periodiche di controllo e di manutenzione nonché a verifiche ad hoc prima di ogni concreto utilizzo, la sua responsabilità rimanendo esclusa soltanto per i danni dovuti a difetti di fabbricazione e funzionamento non rilevabili con un’ispezione diligente. Essendo i doveri organizzativi dell’ospedale sussumibili nella categoria obbligazioni di risultato, la responsabilità che consegue alla loro inosservanza è tra l’altro ricostruita impiegando, in luogo del criterio della colpa utilizzata per valutare la responsabilità del medico, un più rigido parametro di natura oggettiva, incompatibile pure con l’art. 2236 c.c., che addossa all’ente nosocomiale il rischio dell’inadempimento derivante da tutte le anomalie che si possano verificare nell’ambito del proprio apparato organizzativo fino al limite dell’impossibilità sopravvenuta non imputabile.
Applicati all’ambito di nostro interesse, gli orientamenti in discorso portano quindi a riconoscere la responsabilità della struttura sanitaria per i danni cagionati da sistemi di IA che non siano stati sottoposti alle verifiche e alle procedure di manutenzione e di aggiornamento necessarie per assicurare il loro regolare funzionamento. Va però escluso che l’ente sanitario debba rispondere dei danni cagionati da un difetto dei sistemi di IA riconducibile alla fase di realizzazione del dispositivo e insuscettibile di essere rilevato con un esame diligente da parte dell’ospedale, in tal caso venendo in rilievo l’esclusiva responsabilità di quanti hanno per l’appunto partecipato alla fabbricazione e alla messa in opera della macchina; nell’ottica della responsabilità oggettiva, peraltro, tale circostanza dovrà essere provata dalla stessa struttura sanitaria, che in caso contrario dovrà risarcire il danno subito dal paziente sottoposto al trattamento eseguito tramite il sistema di IA malfunzionante.
Che si diriga nei confronti del medico piuttosto che della struttura sanitaria o di entrambi, la pretesa risarcitoria dispiegata dal paziente per ottenere il risarcimento del danno cagionato dall’IA impiegata nelle cure dovrà poi confrontarsi, alla pari di tutte le azioni di responsabilità da medical malpractice, con le questioni relative al nesso eziologico. La ricostruzione del nesso causale potrebbe peraltro presentarsi particolarmente complessa nella materia che ci occupa, perché di fronte all’opacità, all’autonomia e all’imprevedibilità dei sistemi di IA è plausibile che possa emerga più di qualche difficoltà nello stabilire se il danno subito dal paziente sia stato o meno cagionato da un malfunzionamento della macchina intelligente.
Quella delineata non è, peraltro, una questione inedita. Il problema probatorio della c.d. causa ignota costituisce infatti uno dei profili della responsabilità sanitaria maggiormente approfonditi tanto in sede dottrinale quanto nelle aule di giustizia negli ultimi anni, venendo da ultimo risolto con il noto indirizzo giurisprudenziale secondo cui il paziente è tenuto a provare, anche attraverso presunzioni, il nesso di causalità materiale tra la condotta del medico e l’evento dannoso, consistente nella lesione della salute o nell’aggravamento della situazione patologica o nell’insorgenza di una nuova malattia, mentre è onere della controparte, ove il paziente abbia dimostrato il suddetto nesso di causalità materiale, provare – di avere esattamente adempiuto, oppure – che l’inadempimento della prestazione sanitaria è dipeso da impossibilità della prestazione derivante da causa non imputabile. Pertanto, se rimane ignota la causa del danno riportato dal paziente, sarà quest’ultimo a subirne le conseguenze vedendo la propria azione respinta, mentre se rimane ignota la causa che ha impedito ai medici e al nosocomio la corretta esecuzione della prestazione sanitaria, saranno questi ultimi a farne le spese tramite la condanna al risarcimento del danno.
Per mezzo dell’applicazione di questi principi, quindi, dovrebbero poter essere affrontate in maniera appropriata anche le incertezze sulla ricostruzione del nesso eziologico che emergeranno nelle controversie per danni cagionati da trattamenti sanitari eseguiti con l’ausilio dell’IA.
Le riflessioni fin qui svolte consentono di concludere che, alla luce dell’odierno stadio dell’evoluzione tecnologica, la responsabilità sanitaria derivante dall’utilizzo di sistemi di IA dovrebbe potere essere governata in maniera soddisfacente avvalendosi dell’attuale quadro normativo e giurisprudenziale italiano in tema di medical malpractice.
Questo, peraltro, non esclude che alcuni accorgimenti possano essere introdotti allo scopo di migliorare la tenuta complessiva del sistema. In questa direzione, si potrebbe per esempio prevedere che le indicazioni fornite dai sistemi di IA siano assimilate alle linee guida di cui all’art. 5 della Legge Gelli-Bianco alle quali il medico deve attenersi, fatte salve le specificità del caso concreto, nello svolgimento della propria attività: in questo modo, l’interprete avrebbe una base normativa sicura per includere nel giudizio sulla responsabilità del medico l’atteggiamento di osservanza/inosservanza tenuto dal professionista nei confronti del responso della macchina intelligente. Ma una più profonda rivisitazione del sistema normativo vigente non sembra invece necessaria, almeno fintantoché l’evoluzione tecnologica futura non consentirà eventualmente di realizzare macchine in grado di svolgere prestazioni sanitarie in completa autonomia e senza l’intervento dell’uomo, magari affiancando medici umani nell’esecuzione di un trattamento diagnostico o chirurgico.
L’approccio che si è appena finito di esporre non è incontroverso. Oltre a quanti sostengono che l’attuale disciplina della responsabilità medica andrebbe fin d’ora rivista per fare fronte alle problematiche suscitate dall’IA, una diffusa corrente di pensiero invero ritiene che le peculiarità della materia imporrebbero la predisposizione, in via normativa, di una nuova ed apposita disciplina destinata a governare la responsabilità civile per danni cagionati dall’IA, strutturata in maniera identica a prescindere dall’ambito nel quale tale tecnologia viene di volta concretamente utilizzata.
Sono in particolare improntate ad un approccio di questo tipo le numerose iniziative finora adottate in materia dall’Unione europea. Tra di esse, devono essere soprattutto e da ultimo segnalate la proposta di Regolamento del Parlamento europeo e del Consiglio sull’intelligenza artificiale COM(2021) 206 final del 21 aprile 2021 (noto anche come Artificial Intelligence Act), la proposta di Direttiva del Parlamento europeo e del Consiglio sulla responsabilità extracontrattuale da intelligenza artificiale COM(2022) 496 final del 28 settembre 2022 e la coeva proposta di Direttiva del Parlamento europeo e del Consiglio sulla responsabilità per danno da prodotti difettosi COM(2022) 495 final.
La concreta possibilità che le summenzionate iniziative legislative dell’Unione europea vengano presto o tardi approvate impone di confrontarsi con le disposizioni ivi contenute, tra le quali meritano di essere soprattutto indagate, nell’ambito delle nostre riflessioni, quelle dettate dalla proposta di Direttiva sulla responsabilità extracontrattuale per danni cagionati mediante l’IA.
In realtà, la proposta in esame non appare in grado di stravolgere il sistema della responsabilità civile medica esposto nelle pagine precedenti, in quanto aspira a realizzare un’armonizzazione solo minima e mirata. Dal primo punto di vista, essa lascia, infatti, agli Stati membri la facoltà di adottare o mantenere norme interni più favorevoli per il danneggiato rispetto alla disciplina dettata dalla proposta stessa. Sotto il secondo profilo, quest’ultima si occupa essenzialmente di profili probatori senza intervenire sugli aspetti generali della responsabilità civile, che rimangono pertanto affidati alle peculiarità dei singoli ordinamenti nazionali, quali la definizione di colpa, il concetto di causalità, le tipologie di pregiudizi risarcibili, la ripartizione della responsabilità tra i coautori del medesimo illecito, la quantificazione del danno, la prescrizione, e così via.
Più precisamente, la proposta contempla due strumenti giuridici volti ad alleggerire l’onere probatorio incombente su chi esercita un’azione di responsabilità extracontrattuale per colpa allo scopo di ottenere il risarcimento del danno causato da un sistema di IA.
Innanzitutto, si attribuisce al soggetto danneggiato il diritto di accedere ad elementi che possano costituire una prova della sua pretesa, nei casi in cui si tratti di un sistema di IA considerato “ad alto rischio” alla stregua dell’AI Act. A tale scopo, gli Stati membri devono predisporre un meccanismo procedurale per mezzo del quale l’autorità giudiziaria possa ordinare ad un fornitore o ad un utente di esibire quelle prove pertinenti che siano a sua disposizione, relative allo specifico sistema di IA “ad alto rischio”. Al fine di ottenere tale ordine, che comunque dovrà rispondere ai principi di necessità e di proporzionalità, il ricorrente deve presentare fatti e prove sufficienti a sostenere la plausibilità della domanda di risarcimento del danno nonché avere già compiuto invano ogni tentativo proporzionato per ottenere dalla controparte gli elementi di prova dei quali chiede l’esibizione; inoltre, l’ordine dell’autorità è subordinato alla duplice circostanza che uno dei soggetti menzionati si sia rifiutato di esibire gli elementi di prova spontaneamente e che si reputi che il sistema di IA abbia causato un danno. Qualora l’intimato non rispetti l’ordine del giudice nazionale, secondo quanto previsto dalla proposta opera a suo carico una presunzione relativa di inosservanza di un obbligo di diligenza, vincibile dall’intimato stesso fornendo prova contraria.
Il secondo strumento introdotto dalla proposta di direttiva in soccorso dei soggetti danneggiati da un sistema di IA è costituito da un complesso sistema di presunzioni relative concernenti il nesso causale. Più precisamente, è presunta fino a prova contraria l’esistenza del nesso di causalità tra la colpa del convenuto e l’output prodotto da un sistema intelligente o la mancata generazione di un output da parte del sistema che abbia cagionato il danno, quando ricorrano tre condizioni: l’attore ha provato, o il giudice ha presunto secondo quanto sopra esposto, l’inosservanza colposa, da parte del convenuto o di una persona della cui condotta costui è responsabile, degli obblighi di diligenza, previsti dalla disciplina nazionale o europea, posti a prevenire il danno verificatosi; appare ragionevolmente probabile, sulla base delle circostanze del caso concreto, che tale condotta colposa abbia influito sull’output creato dal sistema o sulla sua mancata produzione; l’attore ha dimostrato che l’output prodotto dal sistema digitale, o la sua incapacità di elaborarlo, ha provocato il danno. Per i sistemi intelligenti “ad alto rischio” è poi previsto un regime differenziato, ai sensi del quale, nell’ambito delle azioni promosse contro i fornitori o gli utenti, la presunzione di causalità è limitata al caso del mancato rispetto degli obblighi in capo a costoro previsti dall’AI Act; inoltre, per tale categoria di sistemi intelligenti sussiste un’eccezione all’operatività della presunzione di causalità per il caso in cui il convenuto dimostri che all’attore siano ragionevolmente accessibili le prove e le competenze sufficienti a provare il nesso causale. Quando la richiesta risarcitoria invece riguardi un sistema “non ad alto rischio”, la presunzione di causalità può trovare spazio solo quando la prova del nesso di causalità sia ritenuta eccessivamente difficile per l’attore.
Centro Studi Forense - Euroconference consiglia