Si è svolta di recente la conferenza AIMED Global Summit, appuntamento annuale che riunisce i maggiori esperti del settore, principalmente americani, per discutere degli sviluppi e delle novità dell’Intelligenza Artificiale in Medicina. Per l’edizione 2023 è stato scelta come location il Convention Center di San Diego, in California.
Indice degli argomenti
Intelligenza Artificiale in Medicina: non solo ricerca
Il fondatore di AIMED, Anthony Chang, cardiochirurgo pediatra di Orange County che dopo una lunga carriera ha deciso di rimettersi in gioco ed iscriversi all’università di Stanford per approfondire la scienza dei dati, è la figura chiave a cui va attribuito gran parte del merito nel riuscire a mettere in piedi questa e altre iniziative finalizzate a promuovere la conoscenza e l’utilizzo dell’AI tra i clinici.
La visione promossa da Chang e i suoi è quella di mettere in contatto i professionisti, le aziende, le università e gli investitori interessati per rendere l’AI uno strumento utilizzato non solo nella ricerca ma, anche, nella realtà clinica quotidiana.
AI in Medicina: il contributo della ricerca italiana
In quest’ottica, lo sviluppo dei modelli di AI può nascere solo dalla collaborazione tra la controparte tecnica (data scientist, informatici, etc.) e chi quella realtà clinica la conosce e la vive quotidianamente (i medici e gli altri professionisti sanitari).
Chi scrive ha preso parte alla passata edizione della conferenza, nel 2022 a San Francisco e – nell’edizione di quest’anno – ha ottenuto un pass gratuito presentando un abstract dal titolo “Hospital-acquired infections surveillance and prevention: using Natural Language Processing to analyze unstructured text of hospital discharge letters for surgical site infections identification and risk-stratification“, un lavoro svolto presso il dipartimento di ricerca traslazionale e nuove tecnologie in medicina e chirurgia dell’Università di Pisa, coordinato dalla professoressa Caterina Rizzo.
Un algoritmo di AI per l’identificazione della sepsi
Il primissimo intervento al quale chi scrive ha preso parte, un evento satellite pre-congressuale del College of Healthcare Information Management Executives (CHIME), è stata una brillante presentazione del professore dell’Università del Colorado CT Lin sul percorso che li ha condotti all’integrazione nella pratica clinica di un algoritmo per l’identificazione precoce della sepsi, seguita da una performance canora accompagnata dall’ukulele sulle note di “The house of the rising sun” che lo stesso Lin utilizza spesso per intrattenere e comunicare.
Intelligenza Artificiale in Medicina: sfide e complessità
La keynote di apertura, guidata da Anthony Chang, ha introdotto subito uno dei temi dell’edizione 2023: la dualità.
Il tema, introdotto con la famosa immagine dell’illusione anatra-coniglio, è un invito ad accogliere tutti gli aspetti, positivi e negativi, dirompenti e controversi, dell’Intelligenza Artificiale in Medicina, sottolineando come sia necessario cogliere le sfumature e non banalizzare vedendo tutto bianco o tutto nero, ma accogliendo le sfide che questa porta ed accettandone la complessità.
I percorsi tematici
I diversi percorsi tematici aiutano a comprendere su quali elementi gli organizzatori di AIMED hanno voluto porre l’accento. Si tratta dei seguenti 6 tracks:
- APPLICATION IN CLINICAL DOMAINS
L’AI ha il potenziale per rivoluzionare la pratica clinica in vari ambiti della Medicina. Le applicazioni principali sono quelle in ambito radiologico, circa il 75% degli oltre 521 algoritmi di AI approvati dalla FDA (l’ente regolatorio americano).
Oltre alla diagnostica per immagini, è stato dato ampio spazio alle applicazioni di AI in cardiologia, terapia intensiva, pediatria, oncologia e dermatologia
- ETHICS & REGULATION
L’integrazione dell’Intelligenza Artificiale in Medicina solleva importanti considerazioni etiche e di regolamentazione.
Le questioni etiche includono garantire la privacy del paziente, il consenso e la trasparenza degli algoritmi di AI. Devono essere stabiliti quadri regolamentari per garantire la sicurezza, l’efficacia e l’affidabilità delle tecnologie di AI nella sanità.
È essenziale prendere in considerazione i bias presenti nei dati, per evitare che gli algoritmi di AI possano accrescere le disparità nell’accesso alle cure.
- FROM DATA TO DELIVERY
L’intero ciclo di vita dei dati, dalla raccolta all’analisi, assume una sempre maggior rilevanza per permettere lo sviluppo dell’AI. Le informazioni generate dai modelli di AI devono essere comunicate in modo efficace agli operatori sanitari e integrate nei flussi di lavoro clinici per un impatto concreto nella realtà clinica.
- POPULATION HEALTH & EQUITY
L’AI ha il potenziale per migliorare gli esiti di salute della popolazione e promuovere l’equità in Sanità. Può aiutare a identificare e affrontare le disparità di salute analizzando dati di popolazione su larga scala e identificando gruppi maggiormente vulnerabili.
Gli algoritmi di AI, in un quadro di Global Health, possono assistere nella sorveglianza delle malattie, nella identificazione precoce di epidemie e nella previsione dell’andamento epidemiologico delle malattie, consentendo interventi proattivi e allocazione delle risorse alle popolazioni che ne hanno maggiore necessità.
- STRATEGIES FOR HEALTHCARE LEADERS
Per un’implementazione efficace dell’Intelligenza Artificiale in Medicina è importante avere dei leader che possano guidare questo processo.
I leader in questione dovrebbero sviluppare strategie per integrare le tecnologie di AI nei sistemi sanitari, considerando fattori come l’infrastruttura, la formazione del personale e il coinvolgimento degli stakeholder. Il concetto di Clinical Champion è quello di un professionista sanitario che, grazie alle sue doti di leadership, si fa promotore dell’integrazione dell’Intelligenza Artificiale nella pratica clinica.
- TOOLS & DEPLOYMENT
L’implementazione degli strumenti di AI necessita la progettazione, lo sviluppo e l’addestramento di modelli di AI. Ma ciò non è sufficiente.
Per raggiungere l’implementazione di questi strumenti vanno prese in esame aspetti come l’integrazione con l’infrastruttura sanitaria esistente, la scalabilità e la valutazione e il miglioramento continuo dei sistemi di AI.
Intelligenza Artificiale in Medicina: la fiducia prima di tutto
Tra quelli più di rilievo emersi dal Summit, un primo aspetto, che suona come uno slogan, è quello di mantenere la fiducia (Keep the trust), riferendosi alla fiducia che i medici e i pazienti ripongono verso l’AI.
Forse noi, in Italia, dobbiamo ancora completare questo passaggio: costruire la fiducia. E ciò è possibile solo attraverso lo sviluppo e la validazione scientifica di modelli di AI ed una corretta comunicazione rivolta al personale sanitario e alla popolazione generale.
L’aspetto della fiducia è sicuramente cruciale, come si è reso evidente durante la pandemia da COVID-19. Quando vacilla la fiducia, nel sistema sanitario le conseguenze sulla Sanità Pubblica possono essere estremamente pericolose.
Se vogliamo promuovere l’utilizzo di queste tecnologie di AI in ambito sanitario, dobbiamo assicuraci che siano affidabili e che vengano percepite come tali, perché qualsiasi evento, anche se isolato, potrebbe minare la credibilità dell’intero apparato tecnologico, rischiando di rallentare il progresso a causa di una più o meno giustificata sfiducia.
I bias nei dati dell’AI e le questione etiche
Un altro aspetto che va sottolineato è come il grande interesse verso l’AI abbia portato ad una maggiore attenzione verso i dati, che sempre più vengono visti come una risorsa. Ciò, auspicabilmente, dovrebbe tradursi in una maggiore quantità, e soprattutto, qualità di questi ultimi.
Indipendentemente dall’utilizzo dell’AI, un maggior interesse verso la raccolta e l’analisi dei dati sanitari non può che essere vantaggiosa per il progresso delle nostre conoscenze.
Ponendo tale attenzione ai dati, ciò farà emergere i bias che questi già contengono. Basti pensare alla sotto-rappresentazione di alcuni gruppi etnici nei trial clinici. Con l’avvento dell’AI, che rischia di esacerbare gli effetti dei bias presenti nei dati utilizzati per il suo addestramento, è imperativo porsi determinati quesiti etici e trovare soluzioni che conducano ad una maggiore rappresentatività di tutte le fasce di popolazione nei dati sanitari, per una Sanità più equa.
I bias presenti nei dati possono essere studiati e misurati.
In questo senso, il lavoro di Leo Celi – professore ad Harvard, il cui interesse principale è l’etica dell’AI in medicina – è particolarmente interessante.
Leo Celi, professore ad Harvard, spiega perché è fondamentale rimuovere i bias presenti nei dati sanitari utilizzati per addestrare l’Intelligenza Artificiale in Medicina (fonte: MIT)
Dati sintetici: studi ed esperimenti
Anche il possibile utilizzo di dati sintetici è stato argomento di discussione del Summit, con la prospettiva pragmatica, offerta da Robert Hoyt, professore alla Virginia Commonwealth University School of Medicine, che ha effettuato diversi esperimenti per fini didattici prendendo in esame dataset open-source e confrontando le performance di diversi modelli quando si va ad aumentare con dati sintetici la numerosità del campione.
La metodica maggiormente utilizzata per generare dati sintetici è quella dei Generative Adversarial Networks (GANs). Il gold standard per valutare un modello che utilizza dati sintetici è il cosiddetto “Train on synthetic, test on real” (TSTR), che prevede di addestrare il modello di AI sui dati sintetici e poi valutarne le performance sui dati reali.
Ciò che emerge dagli esperimenti di Hoyt è che i dati sintetici sembrano portare ad un certo vantaggio quando vengono prodotti a partire da un dataset di partenza già sufficientemente grande e che, per utilizzare questo approccio in modelli che poi vengano realmente utilizzati nella pratica clinica, c’è necessità di cautela e maggiori studi.
Intelligenza Artificiale in Medicina: esempi e suggestioni
Un esempio virtuoso è quello portato dalla Mayo Clinic con la Piattaforma Data Behind Glass, basata sul federated learning, che permette di collaborare in sicurezza rispettando la privacy dei pazienti.
Una suggestione per il futuro è, invece, quella rappresentata dalle reti neurali liquide (Liquid Neural Networks) basate su una nuova architettura, più piccola e maggiormente flessibile, in grado di adattarsi continuamente con costi computazionali molto più bassi.
Le reti neurali liquide sono recentemente state sviluppate da alcuni ricercatori del MIT e – pur non avendo al momento applicazioni in ambito sanitario – sembrano essere particolarmente promettenti per i sistemi di supporto alla decisione clinica, ad esempio nel contesto delle terapie intensive.
Shark Tank: AI, startup e investimenti
Nel corso del Summit, lo spazio riservato alle startup, oltre che nelle aree espositive, è stato rappresentato da una competizione chiamata Shark Tank, che letteralmente significa “vasca degli squali”.
Gli squali in questione altro non sono che investitori chiamati a porre alcune domande e votare dopo le brevi presentazioni delle startup (pitch).
L’azienda Kinometrix si è aggiudicata il primo premio con la proposta di un modello di apprendimento automatico predittivo che utilizza i dati delle cartelle cliniche elettroniche in tempo reale per fornire previsioni accurate del rischio di caduta in ospedale.
Il premio del pubblico è invece stato assegnato alla start-up TadHealth che si occupa di gestione della salute mentale per aziende, istituzioni ed organizzazioni.
La competizione degli abstract: l’Italia in prima linea
Durante le giornate congressuali, sono stati presentati oltre 50 lavori.
5 di questi sono stati selezionati per essere presentati tra gli headliners sul palco principale durante l’ultimo giorno del Summit.
Chi scrive ha presentato l’abstract dal titolo “Hospital-acquired infections surveillance and prevention: using Natural Language Processing to analyze unstructured text of hospital discharge letters for surgical site infections identification and risk-stratification” che si è aggiudicato il primo premio della giuria.
Questo approccio innovativo per la sorveglianza delle infezioni del sito chirurgico (ISC) ha richiesto un grande lavoro di labeling delle lettere di dimissione ospedaliera (LDO) dell’Azienda Ospedaliera Universitaria Pisana (AOUP) per identificare i casi di ISC (circa 600 casi identificati su oltre 20.000 LDO analizzate).
Il modello di classificazione binaria, basato su una versione italiana di BERT, famosissimo modello transformer, è quello che si è rivelato maggiormente promettente.
L’algoritmo, attualmente sviluppato per supportare le attività di sorveglianza delle ISC intra-ospedaliere, andrà incontro ad un processo di validazione esterna, su dati provenienti da altre strutture ospedaliere, e in seguito potrebbe diventare utile non solo per la sorveglianza, ma essere riadattato come modello predittivo per identificare, al momento della dimissione, i pazienti ad alto rischio di sviluppare una ISC post-dimissione.
Vedere apprezzato il proprio lavoro è sempre motivo di soddisfazione ma, in questo caso, il premio per il progetto condotto presso l’Università di Pisa assume maggior valore, poiché conferma che, pur non avendo le stesse risorse degli Stati Uniti, è possibile, anche in Italia, sviluppare modelli di AI che hanno il potenziale di migliorare la salute dei pazienti e della popolazione.
Futuro e prospettive dell’Intelligenza Artificiale in Medicina
Gli spunti e le ispirazioni per l’Intelligenza Artificiale in Medicina provenienti dal Summit sono state molteplici.
Uno degli aspetti più rilevanti è il ruolo chiave che assumono i professionisti sanitari nello sviluppare soluzioni di AI che possano realmente avere un impatto in Sanità trasferendo questi strumenti dal mondo della ricerca a quello della clinica.
L’approccio multidisciplinare, basato su una collaborazione proficua tra gli esperti di AI ed il personale sanitario, è imperativo per creare soluzioni utili ed utilizzabili.
Affinché i medici inizino a svolgere un ruolo attivo nello sviluppo dell’Intelligenza Artificiale in Medicina, non necessariamente devono imparare a programmare in Phyton, ma devono saper identificare quali problemi l’AI può risolvere e, per fare ciò, devono comprenderne i principi di funzionamento ed essere in grado di parlare la stessa lingua dei data scientist.
In questo senso, una demistificazione dell’apparentemente complesso e misterioso funzionamento dell’AI può portare a grandi benefici.
Per questo, le attività formative svolgono e svolgeranno un ruolo sempre più chiave.