ChatGPT in Sanità, opportunità e rischi per l’uso dell’Intelligenza Artificiale in Medicina e Salute.
Ne abbiamo parlato spesso, qui su HealthTech360, cercando di capire cosa possano (e non possano) fare i sistemi Large Language Models (LLM) in ambito Healthcare.
Abbiamo addirittura messo alla prova ChatGPT in Sanità, chiacchierando con lui sui temi della Salute Digitale.
Ci siamo anche chiesti se ChatGPT in Medicina e Sanità sia un aiuto o piuttosto un pericolo, certi che, in ogni caso, ChatGPT non potrà fare il Medico, nonostante esistano modelli per il riconoscimento del linguaggio naturale – come ad esempio Med-PaLM di Google, in grado di rispondere a qualsiasi tipo di domande mediche con un grado di accuratezza simile a quello umano.
Indice degli argomenti
AI: dallo scontro emotivo al confronto scientifico
Riguardo alle tante polemiche e al clamore mediatico suscitato dal successo di ChatGPT, il nostro invito è stato ricondurre l’attuale (e irrazionale) scontro emotivo sui binari razionali del confronto scientifico.
Rimettere la Scienza al centro del dibattito sull’Intelligenza Artificiale (senza timori e paure del tutto irrazionali che allontanano dalla verità) e rimboccarci assieme le maniche per scrivere regole condivise e orientare questa (meravigliosa e potentissima) tecnologia per il bene comune, per migliorare la vita delle persone e aiutarci a combattere e vincere le tante sfide che attendono l’essere umano.
È proprio nella direzione di un uso responsabile dell’AI, orientata al bene comune e in linea con i valori e gli interessi della società, che va un interessantissimo studio sui Large Language Models e sul potenziale impatto dell’Intelligenza Artificiale e di chatGPT in Sanità e sulla Salute pubblica pubblicato su Frontiers in Public Health da un team di ricercatori, docenti e medici dell’Università di Pisa e dell’Ospedale Bambino Gesù.
ChatGPT ed LLM: l’ascesa e le preoccupazioni
“L’Intelligenza Artificiale è da sempre considerata un possibile alleato per combattere l’infodemia, consentendo il monitoraggio automatico per la rilevazione della disinformazione, ma l’ascesa degli LLM e in particolare di ChatGPT dovrebbe sollevare preoccupazioni sul fatto che potrebbe svolgere un ruolo opposto in questo fenomeno”.
È quanto afferma Luigi De Angelis, medico e Public Health and Epidemiology Residency presso l’Università di Pisa, in riferimento all’articolo “ChatGPT e l’ascesa dei Large Language Models: la nuova minaccia infodemia guidata dall’Intelligenza Artificiale nella salute pubblica” – pubblicato di recente su Frontiers in Public Health – del quale De Angelis è coautore.
L’infodemia guidata dall’Intelligenza Artificiale
“Nel nostro ultimo articolo prospettico su Frontiers in Public Health – spiega De Angelis – riflettiamo sulle opportunità e le minacce degli LLM nella ricerca medica e definiamo il nuovo concetto di ‘infodemia basata sull’intelligenza artificiale’ ”.
“Le opportunità offerte dagli LLM nel supportare la ricerca scientifica sono molteplici – si legge nel succitato articolo – e vari modelli sono già stati testati in attività di Natural Language Processing (NLP) in questo ambito.
L’impatto di ChatGPT è stato enorme per il pubblico in generale e la comunità di ricerca, con molti autori che hanno utilizzato il chatbot per scrivere parte dei loro articoli e alcuni articoli hanno persino elencato ChatGPT come autore.
Dall’uso degli LLM emergono allarmanti sfide etiche e pratiche, in particolare in campo medico per il potenziale impatto sulla salute pubblica.
L’infodemia è un argomento di tendenza nella salute pubblica e la capacità degli LLM di produrre rapidamente grandi quantità di testo potrebbe sfruttare la disinformazione diffusa su una scala senza precedenti.
Ciò potrebbe creare una “infodemia guidata dall’intelligenza artificiale“, una nuova minaccia per la salute pubblica.
Le politiche per contrastare questo fenomeno devono essere elaborate rapidamente, l’incapacità di rilevare con precisione il testo prodotto dall’Intelligenza Artificiale è una questione irrisolta”.
In base alle premesse e considerazioni di cui sopra, l’articolo affronta a 360° l’argomento della minaccia di un’infodemia nella salute pubblica guidata dall’ascesa dei modelli LLM di intelligenza artificiale.
Di seguito, paragrafate per comodità di lettura, si riportano soltanto le parti relative alla Discussione di tale articolo (chi fosse interessato ad approfondire, potrà farlo consultandone la versione integrale).
ChatGPT e ricerca scientifica
I modelli LLM hanno già mostrato indizi del loro potenziale nel supportare la ricerca scientifica e nei prossimi mesi ci aspettiamo un numero crescente di articoli che parlino dell’uso di ChatGPT in questo campo.
L’accessibilità e le straordinarie capacità di ChatGPT lo hanno reso popolare in tutto il mondo e gli hanno permesso di raggiungere un traguardo fondamentale, facendo compiere un salto di livello agli strumenti di conversazione AI.
Subito dopo il rilascio di ChatGPT, sono emerse possibili minacce.
La capacità di ChatGPT di seguire le istruzioni dell’utente è un’arma a doppio taglio: da un lato, questo approccio lo rende eccezionale nell’interazione con gli umani, dall’altro essere sottomesso ab origine lo espone a un uso improprio, per esempio generando una convincente disinformazione di tipo umano.
ChatGPT in Sanità: i rischi per la ricerca medica
Il campo della ricerca medica può essere una grande fonte sia di opportunità che di minacce provenienti da questo nuovo approccio.
Dato che la comunità scientifica non ha ancora determinato i principi da seguire per un uso utile e sicuro di questa tecnologia dirompente, i rischi derivanti dall’uso fraudolento e non etico degli LLM nel contesto sanitario non possono essere ignorati e dovrebbero essere valutati con un approccio proattivo.
Definiamo il nuovo concetto di “infodemia guidata dall’Intelligenza Artificiale”, una minaccia per la salute pubblica derivante dall’uso degli LLM per produrre una grande quantità di articoli scientifici, notizie false e contenuti disinformativi.
L ‘infodemia guidata dall’Intelligenza Artificiale’ è una conseguenza dell’uso della capacità degli LLM di scrivere grandi quantità di testi simili a quelli umani in un breve periodo di tempo, non solo con intenzioni malevole, ma in generale senza alcun fondamento e supporto scientifico.
Oltre ai contenuti basati su testo, anche altri strumenti di intelligenza artificiale, come le reti generative-adversarial, potrebbero generare deepfake audio e video che potrebbero essere utilizzati per diffondere contenuti di disinformazione, in particolare sui social media.
I deepfake politici hanno già contribuito all’indeterminatezza e alla disinformazione generalizzata.
ChatGPT in Sanità e sistemi LLM per la Salute: consapevolezza e politiche mirate per evitarne le minacce
Per affrontare questa minaccia per la sanità pubblica è importante aumentare la consapevolezza e sviluppare rapidamente politiche attraverso uno sforzo multidisciplinare, aggiornando l’attuale “Agenda di ricerca sulla salute pubblica dell’OMS per la gestione dell’infodemia”.
È necessaria un’azione politica per garantire che i vantaggi degli LLM non siano controbilanciati dai rischi che comportano.
Rilevare e prevenire l’uso scorretto degli LLM: serve collaborazione tra organizzazioni sanitarie e aziende AI
In questo contesto – si legge nella Discussione dell’articolo – proponiamo l’approccio “detectable-by-design” che prevede la costruzione di LLM con caratteristiche che rendano più facile rilevare quando questi vengono utilizzati per produrre notizie false o articoli scientifici.
Tuttavia, l’implementazione di questo approccio potrebbe rallentare il processo di sviluppo degli LLM e, per questo motivo, potrebbe non essere prontamente accettato dalle aziende di intelligenza artificiale.
È necessaria, all’interno delle agenzie sanitarie internazionali (ad es. OMS, ECDC), la costituzione di gruppi di esperti dedicati a monitorare l’uso degli LLM per la produzione di notizie false e articoli scientifici, poiché lo scenario è in rapida evoluzione e la minaccia infodemia guidata dall’intelligenza artificiale è imminente.
Tali gruppi potrebbero lavorare a stretto contatto con le aziende di intelligenza artificiale per sviluppare strategie efficaci per rilevare e prevenire l’uso degli LLM per scopi nefasti.
ChatGPT in Sanità e non solo: regolamentare l’AI per uno sviluppo etico e responsabile degli LLM
Inoltre, potrebbe essere necessaria una maggiore regolamentazione e supervisione del settore dell’AI per garantire che gli LLM siano sviluppati e utilizzati in modo responsabile.
Di recente, il Garante per la protezione dei dati personali (GPDP) è intervenuto nei confronti di Open AI per gravi violazioni della normativa europea in materia di trattamento e protezione dei dati personali.
Il GPDP ha imposto un divieto temporaneo a ChatGPT in Italia (in questi giorni OpenAI ha riaperto ChatGPT, ndr.) a causa della mancata fornitura da parte della società di adeguate informazioni sulla privacy ai propri utenti e della mancanza di un’adeguata base giuridica per la raccolta dei dati.
L’assenza di quest’ultima solleva serie preoccupazioni circa le implicazioni etiche dell’utilizzo dei dati personali senza il consenso o un quadro giuridico adeguato.
Intelligenza Artificiale: causa o rimedio dell’infodemia?
Nell’agenda dell’OMS, l’Intelligenza Artificiale è considerata un possibile alleato per combattere l’infodemia, consentendo il monitoraggio automatico per il rilevamento della disinformazione, ma la diffusione crescente degli LLM – e in particolare di ChatGPT – dovrebbe sollevare preoccupazioni sul fatto che l’AI potrebbe svolgere un ruolo opposto in questo fenomeno.
Gli LLM continueranno a migliorare e diventeranno rapidamente preziosi alleati per i ricercatori, ma la comunità scientifica deve garantire che i progressi resi possibili da ChatGPT e altre tecnologie di intelligenza artificiale non siano oscurati dai rischi che comportano.
Tutte le parti interessate dovrebbero promuovere lo sviluppo e la diffusione di queste tecnologie in linea con i valori e gli interessi della società.
È fondamentale aumentare la comprensione delle sfide dell’AI in termini di trasparenza, responsabilità ed equità al fine di sviluppare politiche efficaci.
Un dibattito guidato dalla Scienza per sviluppare principi e normative condivise è necessario per dare forma a un futuro in cui l’AI abbia un impatto positivo sulla salute pubblica.
La mancanza di un confronto su queste tematiche potrebbe tradursi in un futuro pericoloso sostenuto dall’AI.