L' approfondimento

Intelligenza artificiale in Sanità: come introdurla nella pratica clinica e rendere più competitivo il nostro Paese

Il Consiglio Superiore di Sanità si esprime sui sistemi di intelligenza artificiale come strumento di supporto alla diagnostica. Eugenio Santoro, firma abituale di HealthTech360 ed autore del pezzo che state leggendo, è coautore di questo importante documento e chiarisce perché è di enorme interesse per il futuro dell’AI in ambito medico

Pubblicato il 30 Apr 2022

Eugenio Santoro

Unità di ricerca per la sanità digitale e le terapie digitali, Istituto di Ricerche Farmacologiche Mario Negri IRCCS

intelligenza-artificiale-sanità

L’Intelligenza Artificiale (Artificial Intelligence, AI nella dizione anglosassone) si sta diffondendo velocemente nel mondo sanitario e, in particolare, nella diagnostica per immagini, con la prospettiva, per gli operatori, di doversi confrontare, più o meno a breve termine, con sistemi esperti in grado di modificare significativamente i percorsi diagnostici e terapeutici, le modalità decisionali del medico e, in ultimo, anche il rapporto medico-paziente.

Intelligenza artificiale in Sanità: i rischi potenziali

Uno sviluppo incontrollato e non governato dell’AI può comportare potenziali rischi, derivanti, ad esempio, dall’uso di sistemi di intelligenza artificiale privi di una rigorosa validazione scientifica, dalla mancanza di controllo sui dati processati dai sistemi esperti, da possibili violazioni della privacy degli utenti e da discriminazioni introdotte dalla programmazione degli algoritmi.

Un utilizzo improprio dei sistemi di AI potrebbe, infine, generare aspettative illusorie e fuorvianti per sanitari e pazienti.

Il documento del Consiglio Superiore di Sanità 

intelligenza artificiale Sanità

Queste sono le basi a partire dalle quali il Consiglio Superiore di Sanità ha preparato nei mesi scorsi, grazie al contributo di un gruppo di esperti del settore – e pubblicato alcuni giorni fa sul sito del Ministero della Salute – un importante documento dal titolo “I sistemi di intelligenza artificiale come strumento di supporto alla diagnostica” (Eugenio Santoro, autore dell’approfondimento che state leggendo, è coautore di tale documento, ndr).

Il documento – del quale HealthTech360 aveva dato notizia negli scorsi giorni – è di particolare interesse perché rappresenta la posizione del Ministero della Salute su un argomento spinoso come quello dell’applicazione dell’intelligenza artificiale in ambito diagnostico, area nella quale numerosi sono i progetti in essere, molti dei quali, però, privi di una qualunque validazione scientifica.

Intelligenza artificiale in Sanità: gli aspetti tecnici

La prima parte del documento è più tecnica e ha lo scopo di introdurre correttamente la nomenclatura e la definizione di AI insieme agli aspetti tecnologici e allo stato dell’arte dei sistemi operanti in diagnostica.

Per aiutare a comprendere meglio il problema, sono illustrate le strategie di maggiore impiego nella diagnostica che possono essere ricondotte ai metodi di apprendimento induttivo con l’apprendimento supervisionato, l’apprendimento non supervisionato e l’apprendimento con rinforzo, descritti nel documento con numerosi esempi.
La differente modalità di presentazione di risultati di impiego di diversi sistemi di AI e Machine Learning potrebbe creare dei problemi di confrontabilità. Per questo, in questa parte del documento, è sottolineato il fatto che la comunità internazionale ha definito delle procedure standard per il reporting degli studi che coinvolgono l’Intelligenza Artificiale in Medicina (come, ad esempio, MINIMARMINimum Information for Medical AI Reporting) che gli autori suggeriscono di adottare.

Intelligenza artificiale in Sanità: gli aspetti etici

Un’altra sezione del documento, altrettanto importante, si sofferma invece sugli aspetti etici, legali e normativi, e sulle implicazioni nella relazione medico-paziente.
Diversi sono i temi affrontati in questa sezione.  Tra questi:

  • il quadro normativo
  • le diverse tipologie di sistemi tra autonomia e automazione
  • le implicazioni nella relazione medico-paziente e il consenso informato
  • la raccolta, il trattamento e la condivisione dei dati personali sanitari
  • la disciplina della responsabilità nei rapporti tra produttore e operatore/utilizzatore.

Su questi temi, anche il Comitato Nazionale per la Bioetica e il Comitato Nazionale per la Biosicurezza, le Biotecnologie e le Scienze della Vita si sono espressi nel 2020, su richiesta della Presidenza del Consiglio, attraverso il documento “Intelligenza artificiale e medicina: aspetti etici”.

Intelligenza artificiale in Sanità: gli aspetti di validazione scientifica

La seconda parte del documento affronta la delicata questione della validazione scientifica dei sistemi di AI in ambito diagnostico.
Da un’analisi della letteratura scientifica, si evince che i contesti in cui maggiormente sono documentate le esperienze di AI e Machine Learning sono i seguenti:

  • Radiologia
  • Radioterapia
  • Oftalmologia
  • Dermatologia
  • Gastroenterologia
  • Ginecologia oncologica
  • Senologia
  • Ematologia
  • Infettivologia (compresa COVID-19).

Sebbene siano molti gli studi che sembrano fornire prove di affidabilità a favore dei sistemi di Intelligenza Artificiale usati in un contesto diagnostico, esistono alcune revisioni sistematiche e meta-analisi che ne mettono in discussione la validità scientifica e la metodologia impiegata per raggiungere tali risultati.
Pochi, infatti, sono gli studi clinici che confrontano la diagnosi raggiunta da un sistema di AI o di Machine Learning rispetto a quella raggiunta da un operatore sanitario o un esperto della materia, e la maggior parte di questi ha un elevato rischio di bias perché non correttamente condotti dal punto di vista metodologico.
A ciò occorre aggiungere il fatto che molti studi clinici sono retrospettivi e basati su set di dati precedentemente assemblati, mentre pochi sono quelli prospettici condotti in ambienti clinici reali, in un contesto di “real world” e basati sul modello delle sperimentazioni cliniche controllate randomizzate.
A complicare le cose – e a mettere ulteriormente in discussione i risultati raggiunti dagli studi clinici – è il fatto che molti di questi adottano una validazione interna del sistema di AI a scapito di una validazione esterna, più accurata nel raggiungere gli obiettivi, mentre il confronto tra le performance dei modelli di Machine Learning e quelle degli esperti  – laddove esiste – solo in pochi casi è condotto utilizzando lo stesso set di dati.

Gli altri problemi metodologici e strutturali

Altri problemi metodologici risiedono nell’ampio range di metriche usate per misurare le performance diagnostiche dei sistemi di AI che ne rende difficile il confronto e l’interpretazione, nel ridotto numero di operatori sanitari usati per il confronto delle prestazioni diagnostiche, nella limitata generalizzazione dei risultati e nella ridotta disponibilità di data-set e codici che rendono difficile la riproducibilità degli studi pubblicati.

Non bisogna, inoltre, dimenticare altre limitazioni che pregiudicano in parte, ad oggi, l’impiego di sistemi di AI in Medicina e, in particolare, lo sviluppo di strumenti diagnostici:
i bias di selezione nella scelta dei campioni su cui tali sistemi vengono istruiti e che rendono l’algoritmo non applicabile a tutta la popolazione, la mancanza di trasparenza dell’algoritmo (nota con il termine di black box) che impedisce al medico che impiega il sistema di conoscere il ragionamento applicato per arrivare alla soluzione proposta,
i problemi di sicurezza dei dati dei pazienti che possono mettere a rischio la loro privacy.

Infine, occorre registrare una certa impreparazione del personale medico e sanitario al corretto utilizzo dei sistemi di AI e alla appropriata modalità di comunicazione del loro utilizzo ai pazienti a cui si aggiunge una legittima incomprensione – da parte dell’utente/cittadino –  dei reali benefici e limitazioni dei sistemi di AI.

Intelligenza artificiale in Sanità: le proposte operative 

Nell’ultima parte del documento sono elencate una serie di proposte operative finalizzate sia all’introduzione in modo sicuro dei software di AI nella pratica clinica sia alla implementazione di infrastrutture e di modalità di governance che possano rendere il nostro Paese competitivo a livello internazionale nella programmazione e nello sviluppo dei sistemi di AI.

In particolare, il documento suggerisce che, prima di poter essere impiegati in ambito assistenziale, i sistemi di AI e di Machine Learning debbano passare attraverso il vaglio di una rigorosa validazione scientifica, basata su studi metodologicamente solidi (prospettici, possibilmente randomizzati e condotti in ambienti clinici reali) che dimostrino la non inferiorità, o la superiorità, oltreché la costo-efficacia, rispetto al percorso diagnostico e decisionale convenzionale.
Inoltre, il documento sottolinea l’importanza di dimostrare la sicurezza e la riproducibilità nell’uso del software e di considerare le emergenti problematiche etiche e legali inerenti la responsabilità professionale del medico nell’interazione con gli algoritmi.

AI in Sanità: gli interventi da attuare nel nostro Paese 

Per poter introdurre in modo sicuro nella pratica clinica i sistemi di AI e per competere in ambito internazionale nella realizzazione e nello sviluppo degli stessi, il documento suggerisce che, nel nostro Paese, siano attuati i seguenti interventi:

  • realizzazione di una infrastruttura organizzativa, informatizzata, a livello locale, regionale o nazionale, di data stewardship e data governance
  • creazione di una struttura di governance dei sistemi di AI da parte delle agenzie regolatorie italiane, in particolare il Ministero della Salute per ciò che riguarda i dispositivi medici e AIFA per gli eventuali aspetti terapeutici, con lo scopo di stabilire regole rigorose per l’approvazione e la registrazione di tali sistemi
  • predisposizione di Linee Guida nazionali riguardanti le modalità di integrazione e il corretto utilizzo dei sistemi di AI nella diagnostica, in accordo con le società scientifiche di riferimento
  • creazione di un osservatorio nazionale permanente, presso il Ministero della Salute, per il monitoraggio delle performance dei sistemi di AI immessi sul mercato (analisi post-market)
  • predisposizione di moduli formativi universitari e post-universitari per migliorare le conoscenze e competenze in materia di AI del personale medico e delle professioni sanitarie
  • integrazione di elementi metodologici in tema di AI all’interno dei programmi della scuola secondaria superiore e creazione di contenuti informativi, anche tramite canali informatici, al servizio del cittadino.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 5