Telemedicina e intelligenza artificiale, chi paga in caso di errore?
Che cosa succede se un medico commette un errore di diagnosi durante un consulto di telemedicina? E se un dispositivo medico che utilizza l'Intelligenza artificiale produce una diagnosi che poi si rivela sbagliata, come si valuta la responsabilità sanitaria? Insomma, di chi è la responsabilità? Del medico che non ha saputo cogliere l'errore della macchina? O solo della macchina e del suo produttore?
Intorno a interrogativi come questi ha ruotato l'incontro “Verso una Sanità digitale responsabile. Le nuove frontiere della responsabilità sanitaria nel contesto della digitalizzazione (telemedicina, intelligenza artificiale e condivisione dei dati sanitari)” che si è svolto giovedì 30 novembre a Roma per iniziativa della Fondazione Sanità responsabile.
La pubblicazione delle Linee guida per i Servizi di telemedicina del ministero della Salute lo scorso novembre 2022 «segna un punto di svolta per l'accessibilità e la qualità dell'assistenza sanitaria digitale» – sottolineano Gabriele Chiarini, presidente della Fondazione Sanità responsabile, e Sergio Pillon, angiologo, vicepresidente dell'Associazione italiana sanità digitale e telemedicina. «Tuttavia – aggiungono - con l'innovazione si intensificano anche le responsabilità e l'adozione della telemedicina pone questioni fondamentali di responsabilità professionale».
Affrontare il tema delle responsabilità nell'utilizzo dell'intelligenza artificiale e delle tecnologie più innovative in ambito sanitario «vuol dire non solo fare i conti con i rischi e i limiti – sostiene Vincenzo Antonelli, professore di Diritto sanitario all'Università dell’Aquila - ma anche sondare e analizzare le possibilità che oggi e in futuro queste tecnologie possono offrire alla medicina, all'organizzazione sanitaria ma soprattutto ai pazienti. Soltanto una sanità digitale che sia anche responsabile potrà contribuire al miglioramento dei servizi sanitari ed essere accettata dagli operatori».
A giugno 2023 il Parlamento europeo ha approvato l'AI Act sull’intelligenza artificiale che, come ricorda Stefania Tassone, Consigliere presso la Suprema Corte di Cassazione, «vale per tutte le attività dove l’IA trova applicazione e dunque anche in sanità. Il regolamento, che vincola tutti gli Stati membri, individua quattro livelli di rischio dell’IA applicata che vanno affrontati con gli strumenti della prevenzione e del risk management. Poi, ogni Stato ha le sue normative e, personalmente, posso affermare con certezza che la nostra legge Gelli-Bianco 24/2017 è una buona legge».
Quanto al futuro, secondo Alberto Michele Cisterna, presidente della Tredicesima Sezione civile del Tribunale di Roma, «difficilmente il legislatore riuscirà a dare regole precise e dettagliate in questo ambito e la giurisprudenza quindi avrà un compito ancora più importante perché, dovendosi confrontare con l’intelligenza artificiale, dovrà stabilire se è stata scelta correttamente in sede sanitaria e se è affidabile, per far sì che i protocolli siano controllabili. Altrimenti, l’incontrollabilità dei protocolli generati dall’IA impedirebbe qualunque giudizio». Per Cisterna, quindi, il «vero tema» è come collegare la responsabilità a chi genera gli algoritmi alla base dell’intelligenza artificiale «Sarà cruciale dare risposte a domande come: chi ha concepito quel sistema? Quali dati sono stati utilizzati? Che base di popolazione è stata considerata? Europea? Asiatica? Africana? Solo rispondendo a queste domande – conclude l'esperto - potremo dire che il giudizio espresso è corretto o meno. Basta pensare a tutte le privative industriali per renderci conto che sarà un compito immane».