Articoli

La Responsabilità civile sanitaria ai tempi dell’Intelligenza Artificiale in medicina

  |   Diritto Sanitario, Tutte le News

Scopo della presente trattazione è valutare l’impatto sul regime della responsabilità civile sanitaria dei moderni sistemi di Intelligenza Artificiale applicati in ambito medico.

 

La questione della responsabilità nei casi di danni provocati dall’utilizzo di un sistema di IA è, infatti, uno degli aspetti essenziali da affrontare nell’ambito dell’attuale processo di transizione tecnologica: occorre, infatti, individuare un sistema di allocazione della responsabilità civile sanitaria, secondo un criterio di massima efficienza per la società.

Con riferimento all’ambito medico, si consideri come con l’introduzione dei sistemi di IA, il sistema di allocazione delle responsabilità siano ad oggi binario, essendo 2 i soggetti protagonisti della prestazione sanitaria (medico e ospedale), veda l’interferenza di un terzo elemento (IA) il quale porta ad un parziale cambiamento anche del ruolo del medico, che da esclusivo esecutore della prestazione sanitaria (di cui si assumeva l’esclusiva responsabilità) diviene controllore ex post del risultato fornito dalla IA.

 

La prima domanda che bisogna porsi è, pertanto:

 

  • l’attuale disciplina della Responsabilità civile Sanitaria è adeguato e rispondente al nuovo scenario e con esso alle problematiche insite nell’impiego di sistemi di IA  in medicina ?
  • oppure è necessario elaborare uno nuovo sistema che sia in grado di meglio rispondere alle nuove sfide ed adattarsi alle nuove questioni suscitate dal fattore tecnologico applicato alla cura del paziente.

 

Spoileriamo subito.

 

Una riforma nel futuro prossimo è opportuna quanto inevitabile (stante anche la rapidissima e continua evoluzione dei sistemi di IA verso una loro sempre maggiore autonomia) e vi sarà, anzi è alle porte.

 

Le basi di tale regime ad hoc in ambito di Unione Europea sono state poste con due risoluzioni del Parlamento Europeo (16 febbraio 2017 “Raccomandazioni alla Commissione Europea concernenti norme di diritto civile sulla robotica” e 20 ottobre 2020 “Raccomandazioni alla Commissione su un regime di responsabilità civile per l’intelligenza artificiale”) che ha avviato un processo per l’armonizzazione delle norme in materia di IA nel settore della Responsabilità civile.

La Commissione Europea è stata invitata ad elaborare una proposta di direttiva per regolare l’impiego della robotica intelligente anche con riferimento al settore sanitario, precisando che la scelta inziale di cura e quella finale sull’esecuzione dovranno spettare comunque ad un medico umano (la tecnologia robotica dovrà integrare la capacità umana e non sostituirsi ad essa) e sottolineando la necessità di predisporre un quadro giuridico basato su principi comuni per garantire la certezza giuridica e fissare norme uniformi in tutta l’Unione.

Si è arrivati così alla “Direttiva del Parlamento Europeo e del Consiglio del 28.09.2022 relativa all’adeguamento delle norme in materia di responsabilità civile extracontrattuale all’intelligenza artificiale” (Direttiva sulla responsabilità da intelligenza artificiale) che segue un approccio di armonizzazione minima. L’intento è quello di promuovere la fiducia nell’IA garantendo l’effettivo risarcimento dei danneggiati in caso di danni malgrado i requisiti preventivi della legge sull’IA e altre norme di sicurezza.

Di dicembre di quest’anno è, infatti, l’“Accordo provvisorio sul progetto di regolamento sull’intelligenza artificiale” che ha riguardo, d’altro canto, la messa in commercio dei sistemi di IA e nel quale l’idea principale è quella di regolamentarla sulla base della capacità di quest’ultima di causare danni alla società seguendo un approccio basato sul “rischio”, per cui tanto maggiore è il rischio, quanto più rigorose sono le regole per l’immissione sul mercato. Con il regolamento si mira, infatti, a garantire che i sistemi di IA immessi sul mercato europeo e utilizzati nell’UE siano sicuri e rispettino i diritti fondamentali e i valori dell’Unione Europea

 

Sui prossimi scenari futuri che scaturiranno dalle norme di diritto “europeo” complete e definitive in materia di responsabilità civile da IA torneremo in chiusura della nostra disamina. Vogliamo vedere invece, allo stato attuale, “qui ed ora” (perché le applicazioni in ambito medico sono già adesso), ovvero sulla base del vigente quadro normativo interno, quale debba essere il regime di allocazione delle responsabilità in caso di danni conseguenti all’utilizzo di strumentazioni dotate di IA .

 

In primis, deve ritenersi che l’impiego dell’IA sia un fattore neutrale rispetto alla qualificazione della natura della prestazione medica che è e rimane (allo stato attuale) una obbligazione di mezzi (ovvero senza un obbligo di risultato in capo al medico) e nella quale la responsabilità del sanitario rimane vincolata alla “colpa” parametrata al canone della diligenza professionale qualificata ai sensi dell’art. 1176, comma 2° cod. civ. e/o al rispetto della linee guida di cui all’art. 5 della Legge Gelli-Bianco.

 

Prendendo le mosse dalle regole ordinarie di responsabilità civile medica, esse non si ritiene debbano mutare quando la macchina d’IA non sia autonoma e sia pertanto guidata e sotto il controllo del chirurgo.  In tale ipotesi, il sanitario dipendente di struttura ospedaliera risponderà in via extracontrattuale per “colpa” ai sensi dell’art. 2043 Cod. civ. (secondo i canoni tradizionali di colpa per imprudenza, imperizia, negligenza), mentre il medico libero professionista e la struttura sanitaria risponderanno in via contrattuale ai sensi dell’art. 1218 Cod. civ., quest’ultima anche per il fatto del proprio personale sanitario/ausiliario ai sensi dell’art. 1228 Cod. civ..

 

Deve, invece, escludersi la possibilità di un’applicazione alla prestazione medica con utilizzo di tecnologia d’IA dell’art. 2236 cod. civ. che prevede per le prestazioni sanitarie implicanti “problemi tecnici di particolari difficoltà” la limitazione della responsabilità ai soli casi di “dolo” o “colpa grave”. Non sembra corretto, infatti,  ricavare alcun automatismo tra sofisticatezza e innovatività dei sistemi di IA e ricorrenza della “particolare difficoltà” che deve sempre essere accertata nel caso concreto.

 

Non appare convincente neppure la possibilità di applicare alle prestazioni sanitarie eseguite tramite l’utilizzo di IA l’art. 2050 cod. civ. che prevede a carico di chi eserciti “attività pericolose” una presunzione responsabilità in caso di danno. La qualificazione dell’attività medica come “attività pericolosa” è, infatti, da sempre controversa e avversa.

 

Si ritiene, invece, plausibile che le nuove tecnologie possano comportare a carico della struttura sanitaria responsabilità organizzative-gestionali, in caso ad esempio di mancato controllo-manutenzione periodica prima di ogni utilizzo. Tale “responsabilità organizzativa” potrà essere esclusa solo in caso di danni dovuti a difetti di fabbricazione e funzionamento non rilevabili dall’utilizzatore.

 

Per tali danni cagionati dal malfunzionamenti dei sistemi di IA – non riconducibili né a un deficit organizzativo della struttura sanitaria, né ad una colpa (per imprudenza, imperizia, negligenza) necessaria (secondo l’attuale disciplina di cui alla Legge Gelli-Bianco) per incolpare il medico ausiliario-dipendente della struttura – ci si domanda se sia applicabile la normativa in materia di “responsabilità da prodotto difettoso” contenuta negli artt. 114-127 del Codice del Consumo.

Al riguardo vi sono alcune criticità.

Da un lato sarebbero opportuni cambiamenti volti ad aggiornare le definizioni giuridiche di “prodotto” (per assicurare la riconducibilità del dispositivo di IA alla nozione di prodotto), dall’altro lato, va evidenziato che tale normativa garantisce il risarcimento del danno soltanto quando il danneggiato sia in grado di dimostrare il difetto del prodotto (ed il nesso di causa tra difetto e danno), prova particolarmente difficile per tali tipi di dispositivi causa l’opacità che li caratterizza, con la conseguenza che vi sarebbero moltissimi casi in cui il paziente danneggiato non sarebbe in grado di ottenere alcun risarcimento.

Per questo motivo il Parlamento Europeo nella sopracitata “Direttiva sulla responsabilità da intelligenza artificiale” del 28.09.2022” ha proposto l’obiettivo d’introdurre una nuova disciplina della responsabilità per danno da prodotto difettoso che tenga conto delle peculiarità dell’IA e/o di un regime di responsabilità oggettiva almeno per i sistemi d’IA c.d. ad alto rischio.

 

Tali ragioni, unitamente al fatto che nel prossimo futuro l’autonomia di tali sistemi sarà sempre maggiore, inducono a fare ritenere che il regime più idoneo a regolare tali situazioni di danno non possa che essere altro che quello della responsabilità oggettiva, ovvero che prescinde dall’accertamento di una colpa, nel quale chi crea un sistema di IA e lo mette in commercio, sia chiamato a rispondere del rischio imprevedibile e ineliminabile ad esso connesso, consentendo una tutela piena del paziente (ma anche una tutela del medico è il caso di dire).

Un ruolo fondamentale in questo contesto non potrà che essere assunto dal diritto assicurativo, in specie dall’assicurazione obbligatoria come strumento di copertura volto a incoraggiare le aziende ad assumersi rischi nel campo delle nuove tecnologie.

 

Avv. Marcello Albini


Hai bisogno di una consulenza legale?

Rivolgiti ai nostri esperti

Contattaci

AUTORE - Marcello Albini