L'intelligenza artificiale può essere utilizzata per contraffare le immagini radiologiche. E rendersi complice di frodi

Lo studio

L'intelligenza artificiale può essere utilizzata per contraffare le immagini radiologiche. E rendersi complice di frodi

di redazione

Chi può avere interesse ad alterare le immagini cliniche? Le radiografie, per esempio. Non è difficile rispondere: per esempio chi ha intenzione di truffare un'assicurazione chiedendo risarcimenti non dovuti.

Ebbene, uno studio realizzato in collaborazione tra l’Istituto di fisica applicata “Nello Carrara” del Cnr e l’Università di Pisa, ha evidenziato come il machine learning, che utilizza gli algoritmi per l’analisi delle immagini cliniche, può essere utilizzato anche per modificarle, creando i cosiddetti “attacchi avversi”, in grado di ingannare gli stessi sistemi di analisi e pilotare così l'esito di una diagnosi. La ricerca è stata pubblicata sulla rivista European Journal of Nuclear Medicine and Molecular Imaging.

[view:attributi_nodo=pubblicita[

«Nel mondo digitale – osserva Andrea Barucci del Cnr-Ifac, uno dei due autori dello studio insieme con il radiologo dell’Università di Pisa Emanuele Neri - la sanità 4.0 si muove veloce verso una nuova visione, fondata su dati e integrazione di informazioni. Le analisi basate sull’intelligenza artificiale costituiscono uno strumento sempre più diffuso in tutti gli ambiti clinici, suscitando grandi aspettative. Un esempio è la Radiomica, ossia l’estrazione di parametri quantitativi dalle immagini radiologiche, con cui creare modelli diagnostici e predittivi: uno strumento ormai ampiamente utilizzato e, negli ultimi anni, rafforzato dall’introduzione delle reti neurali, dando origine alla deep-radiomics». Il machine learning, su cui principalmente si fonda la potenza di queste analisi informatiche delle immagini, «può tuttavia essere usato anche in modo negativo – spiega Barucci - per creare attacchi avversi ai sistemi di analisi delle immagini, cioè modifiche ad hoc delle immagini, impercettibili anche all’occhio umano esperto, studiate per ingannare gli stessi algoritmi e pilotare l’esito di una diagnosi».

Lo studio dei due ricercatori definisce questo fenomeno in ambito di imaging radiologico come “Adversarial Radiomics”: «Un’analogia con il più ampio campo di ricerca dell’adversarial machine learning, in cui il fenomeno è studiato da anni, per esempio, nella cyber-security e nella guida autonoma» precisa Neri.

Gli “esempi avversi” sono un problema relativamente recente nello studio del machine learning e la loro applicazione all’imaging clinico è un ambito ancor più nuovo «e con risvolti sociali importanti - sottolinea Barucci - per esempio nelle frodi assicurative. D’altronde proprio lo studio di questi esempi avversi è estremamente utile per approfondire la comprensione di algoritmi complessi come le reti neurali e migliorare lo sfruttamento degli strumenti informatici a disposizione». L’intuizione del radiologo «è ancora essenziale nel controllo e nell’integrazione delle complesse analisi fornite dagli algoritmi di intelligenza artificiale - conclude il ricercatore del Cnr - e il futuro impone una sempre maggiore armonizzazione tra l’analisi informatica e quella umana».