Intelligenza Artificiale

AI Act: quale impatto per la Sanità?



Indirizzo copiato

Il regolamento dell’Unione Europea che disciplina l’utilizzo dell’Intelligenza Artificiale, la tutela della privacy e la protezione dei dati nel campo della Salute ha importanti conseguenze per aziende sanitarie, ospedali e operatori del settore. Vediamo quali e cosa fare per essere compliant. AGGIORNAMENTO: l’AI Act approvato dal Parlamento Europeo e il disegno di legge italiano sull’AI

Aggiornato il 2 mag 2024

Domenico Marino

Professore associato Università degli Studi Mediterranea di Reggio Calabria



AI-Act-Sanità

Il notevole incremento dei dati digitali che permea ogni aspetto della nostra vita, sia dentro che fuori dal campo medico, offre molteplici opportunità per sorvegliare la nostra salute, comprendere le origini delle malattie, sviluppare nuove terapie e influenzare le nostre abitudini di vita.

AI in Sanità: in cosa la si sta usando di più

Attualmente, l’Intelligenza Artificiale (AI) sta progressivamente penetrando nel settore sanitario, dimostrando successo nella diagnosi tramite scansioni e immagini, nella creazione o scoperta di terapie innovative, nella selezione dei pazienti, nella pianificazione delle cure e nel monitoraggio dello stato di salute.

Inoltre, l’AI presenta opportunità per migliorare l’efficienza amministrativa del settore sanitario.

Le preoccupazioni sull’uso dell’AI in ambito sanitario

Tuttavia, l’effettiva applicazione di tali tecnologie rimane limitata e i progressi rivoluzionari che potrebbero trasformare il campo della salute sono ancora da realizzare.

L’ampliamento delle frontiere dei dati che possono essere utilizzati per inferire lo stato di salute individuale, così come coloro che possono accedervi, solleva preoccupazioni riguardo alla nostra autonomia e riservatezza.

Un esempio di ciò è l’utilizzo dei dati sanitari da parte di aziende farmaceutiche e tecnologiche per fini commerciali.
Inoltre, i dati relativi alla salute sono spesso afflitti da imperfezioni e pregiudizi. Quando vengono utilizzati per sviluppare sistemi di intelligenza artificiale, possono perpetuare discriminazioni ed esacerbare le disuguaglianze.

Un’altra preoccupazione di rilievo riguarda il modo in cui i progressi tecnologici contribuiscono alle disuguaglianze a livello nazionale e internazionale.

AI Act: cos’è e perché impatta sulla Sanità

Nel contesto dell’AI Act, che rappresenta un regolamento dell’Unione Europea, adottato il 14 giugno 2023 per disciplinare l’utilizzo dell’Intelligenza Artificiale, la tutela della privacy e la protezione dei dati nel campo della salute rivestono un ruolo di fondamentale importanza.

L’AI Act pone grande enfasi sulla salvaguardia dei dati personali e sulla protezione della privacy dei cittadini.
Il documento adottato contiene specifiche disposizioni volte a garantire un trattamento sicuro dei dati sanitari in conformità alle leggi sulla privacy.

Cosa prevede e quali sono i presupposti dell’AI Act in Sanità

L’AI Act, in ambito Sanità, riconosce che i dati relativi alla salute sono particolarmente sensibili e richiedono un elevato livello di protezione.

L’AI Act stabilisce norme chiare riguardo alla raccolta, all’elaborazione e all’uso dei dati sanitari nell’ambito dei sistemi di intelligenza artificiale.

Conforme al principio di minimizzazione dei dati, l’AI Act richiede che venga utilizzata la quantità minima di dati necessaria per raggiungere gli obiettivi previsti.

AI Act in Sanità: l’impatto su aziende e operatori sanitari

Cosa comporta l’AI Act in Sanità per le aziende sanitarie e gli operatori del settore?

Innanzitutto, devono limitare la raccolta e l’elaborazione dei dati sanitari solamente a quanto strettamente necessario per scopi specifici come diagnosi, cura o ricerca medica.

Inoltre, l’AI Act in Sanità sottolinea l’importanza di ottenere il consenso informato da parte dei pazienti per il trattamento dei loro dati sanitari. I cittadini hanno il diritto di essere adeguatamente informati su come verranno utilizzati i loro dati e devono prestare il loro consenso esplicito al trattamento di tali informazioni.

Da sottolineare anche – come visto in questo approfondimento – che l’AI Act in Sanità avrà un grande impatto sui dispositivi medici che contengono software di intelligenza artificiale.

AI Act e organizzazioni sanitarie: trasparenza e sicurezza

La proposta normativa mira anche a garantire la trasparenza nell’utilizzo dell’Intelligenza Artificiale nel campo della Salute.

Le organizzazioni sanitarie che impiegano sistemi di AI per scopi sanitari devono essere trasparenti riguardo al funzionamento di tali sistemi, inclusa la logica alla base delle decisioni e i criteri utilizzati per prenderle.

Infine, l’AI Act in Sanità prevede adeguate misure di sicurezza per proteggere i dati sanitari da accessi non autorizzati, perdite o utilizzi impropri.
Le organizzazioni sanitarie devono adottare adeguate misure tecniche e organizzative per garantire la sicurezza e l’integrità dei dati sanitari, prevenendo qualsiasi rischio di violazione della privacy.

AI Act e migrazione al Cloud per aziende ospedaliere e sanitarie

L’AI Act in Sanità impatta fortemente sullo sviluppo di tecnologie cloud per i dati sanitari.
La migrazione al Cloud di un’azienda Ospedaliera o di un’Azienda Sanitaria è, infatti, un processo complesso che richiede una pianificazione accurata e un’implementazione attenta per garantire il successo del progetto.
Ci sono molte opportunità che derivano dalla migrazione al Cloud, ma ci sono anche rischi e problemi che devono essere gestiti.
In primo luogo, uno dei principali vantaggi della migrazione al Cloud per un ospedale è la capacità di ridurre i costi di gestione dell’infrastruttura IT.
Tramite la migrazione al Cloud, infatti, l’ospedale può evitare di dover gestire e mantenere un’infrastruttura hardware costosa e complessa, così come ridurre i costi di personale IT necessario per la manutenzione dell’hardware.
Inoltre, l’utilizzo del Cloud può offrire maggiore flessibilità e scalabilità, consentendo all’ospedale di espandere o ridurre la capacità IT in modo rapido ed efficiente.

Tuttavia, ci sono anche alcuni rischi e problemi associati alla migrazione al Cloud di strutture sanitarie. Uno dei principali riguarda la sicurezza dei dati e la conformità alle normative. Le strutture sanitarie devono garantire che i dati sensibili dei pazienti siano protetti adeguatamente e che vengano rispettate le leggi sulla privacy e la protezione dei dati.
Inoltre, la migrazione al Cloud potrebbe comportare una maggiore esposizione ai rischi di sicurezza informatica, come attacchi di phishing o di malware, che potrebbero compromettere la sicurezza dei dati.
Un altro problema potrebbe essere rappresentato dalla necessità di adattare le applicazioni esistenti all’ambiente cloud, che potrebbe richiedere tempo e risorse aggiuntive.
Inoltre, l’ospedale deve valutare attentamente le proprie esigenze di sicurezza e privacy dei dati per determinare la soluzione cloud più adeguata e garantire che il servizio sia affidabile, scalabile e disponibile in modo continuo.

AI Act e Sanità: le questione etiche

Più in generale, l’AI Act include anche disposizioni etiche rilevanti al fine di promuovere un utilizzo responsabile ed etico dell’AI.

Queste disposizioni riflettono la consapevolezza dell’importanza di affrontare le questioni etiche connesse all’ampia adozione dell’AI in vari settori, tra cui il settore sanitario, e riconoscono che l’AI deve essere sviluppata e utilizzata nel rispetto dei valori fondamentali, dei diritti umani e delle libertà fondamentali, prevenendo l’utilizzo dannoso o discriminatorio dell’AI e promuovendone la sua corretta applicazione.

AGGIORNAMENTO (marzo 2024): l’AI Act approvato dal Parlamento Europeo

Il Parlamento Europeo – a marzo 2024 – ha approvato la Legge sull’Intelligenza Artificiale che ne garantisce la sicurezza e il rispetto dei diritti fondamentali, promuovendo al tempo stesso l’innovazione.

Come si legge in una nota dello stesso Parlamento Europeo, il regolamento mira a proteggere i diritti fondamentali, la democrazia, lo Stato di diritto e la sostenibilità ambientale dall’Intelligenza Artificiale, promuovendo, al contempo, l’innovazione e affermando l’Europa come leader nel settore.

Il Regolamento stabilisce obblighi per l’AI in base ai rischi potenziali e al livello di impatto.

Le applicazioni di AI vietate: no a DB di riconoscimento facciale, emozioni, comportamento e polizia predittiva

Le nuove regole vietano alcune applicazioni di Intelligenza Artificiale che minacciano i diritti dei cittadini, compresi i sistemi di categorizzazione biometrica basati su caratteristiche sensibili e lo scraping non mirato di immagini facciali da Internet o filmati CCTV per creare database di riconoscimento facciale.

Saranno vietati anche il riconoscimento delle emozioni sul posto di lavoro e a scuola, il punteggio sociale, la polizia predittiva (quando si basa esclusivamente sulla profilazione di una persona o sulla valutazione delle sue caratteristiche) e l’Intelligenza Artificiale che manipola il comportamento umano o sfrutta le vulnerabilità delle persone.

Identificazione biometrica e AI: i casi leciti

L’utilizzo di sistemi di identificazione biometrica (RBI) da parte delle forze dell’ordine – precisa la nota – è in linea di principio vietato, tranne che in situazioni tassativamente elencate e strettamente definite.

L’RBI “in tempo reale” può essere implementato solo se vengono soddisfatte rigorose garanzie: ad esempio, il suo utilizzo è limitato nel tempo e nell’ambito geografico e soggetto a specifica autorizzazione giudiziaria o amministrativa preventiva. Tali usi possono includere, ad esempio, la ricerca mirata di una persona scomparsa o la prevenzione di un attacco terroristico.

Esempi di usi dell’AI ad “alto rischio”

Sono previsti obblighi chiari anche per altri sistemi di AI ad “alto rischio” (a causa del loro significativo potenziale danno alla salute, alla sicurezza, ai diritti fondamentali, all’ambiente, alla democrazia e allo Stato di diritto).

Esempi di usi dell’AI ad “alto rischio” includono:

  • infrastrutture critiche
  • istruzione e formazione professionale
  • occupazione
  • servizi pubblici e privati ​​essenziali (ad esempio: assistenza sanitaria, banche)
  • alcuni sistemi di applicazione della Legge
  • migrazione e gestione delle frontiere
  • giustizia e processi democratici (ad esempio: influenza sulle elezioni).

Tali sistemi devono:

  • valutare e ridurre i rischi
  • conservare i registri di utilizzo
  • essere trasparenti e accurati
  • garantire la supervisione umana.

I cittadini avranno il diritto di presentare reclami sui sistemi di AI e ricevere spiegazioni sulle decisioni basate su sistemi di AI ad “alto rischio” che influiscono sui loro diritti.

Sistemi di AI improntati alla trasparenza

I sistemi di Intelligenza Artificiale per scopi generali (GPAI) e i modelli GPAI su cui si basano devono soddisfare determinati requisiti di trasparenza, tra cui il rispetto della legge europea sul copyright e la pubblicazione di riepiloghi dettagliati dei contenuti utilizzati per l’addestramento.

Inoltre, le immagini artificiali o manipolate, i contenuti audio o video (“deepfakes”), dovranno essere chiaramente etichettati come tali.

PMI e start-up: le misure a sostegno dell’innovazione

L’AI Act prevede l’obbligo di istituire sandbox normativi e test real-word a livello nazionale e renderli accessibili alle PMI e alle start-up per metterle in condizione di sviluppare e addestrare un nuovo sistema di AI prima della sua immissione sul mercato.

Il futuro dell’AI Act

“L’AI Act è un punto di partenza per un nuovo modello di governance costruito attorno alla tecnologia. Ora dobbiamo concentrarci sulla messa in pratica di questa Legge” – ha affermato Dragos Tudorache (Commissione europea per le libertà civili).

Il Regolamento – precisa la nota del Parlamento Europeo – è ancora sottoposto ad una verifica finale da parte dei giuristi-linguisti e se ne prevede l’adozione definitiva entro la fine della legislatura (attraverso la cosiddetta “procedura corrigendum” ).

L’AI Act, inoltre, dovrà essere approvato formalmente dal Consiglio Europeo.

AGGIORNAMENTO (maggio 2024): il disegno di legge italiano che muove le mosse dall’AI Act

La nota stampa del Consiglio dei Ministri (n. 78 del 23 Aprile 2024) precisa con chiarezza che il disegno di legge sull’Intelligenza Artificiale appena approvato dal Governo “non si sovrappone al Regolamento europeo (AI Act, ndr.) approvato lo scorso 13 marzo dal Parlamento Europeo, di prossima emanazione, ma ne accompagna il quadro regolatorio negli spazi propri del diritto interno”.

Non un’AI Act ad hoc per l’Italia, insomma, ma una legge che (dovrebbe) renderlo concretamente applicabile nelle specifiche condizioni e contesto in cui opera il nostro Paese.

Il disegno di legge – si legge nella nota – individua criteri regolatori capaci di riequilibrare il rapporto tra le opportunità che offrono le nuove tecnologie e i rischi legati al loro uso improprio, al loro sottoutilizzo o al loro impiego dannoso.

Inoltre, introduce norme di principio e disposizioni di settore che, da un lato, promuovano l’utilizzo delle nuove tecnologie per il miglioramento delle condizioni di vita dei cittadini e della coesione sociale e, dall’altro, forniscano soluzioni per la gestione del rischio fondate su una visione antropocentrica.

Ambiti e principi sui quali si fonda il ddl italiano sull’AI

Le norme del disegno di legge italiano sull’AI intervengono nei seguenti 5 ambiti:

  • strategia nazionale;
  • autorità nazionali;
  • azioni di promozione;
  • tutela del diritto di autore;
  • sanzioni penali.

Le norme, inoltre, prevedono che il ciclo di vita dei sistemi e dei modelli di intelligenza artificiale debba basarsi sul rispetto dei diritti fondamentali e delle libertà dell’ordinamento italiano ed europeo oltre che sui principi di:

  • trasparenza;
  • proporzionalità;
  • sicurezza;
  • valorizzazione (anche economica) del dato;
  • protezione dei dati personali;
  • riservatezza;
  • robustezza;
  • accuratezza;
  • non discriminazione;
  • parità dei sessi e sostenibilità.

Le disposizioni del disegno di legge italiano per l’AI in Sanità

Di particolare interesse, per i nostri lettori, le disposizioni del ddl riguardo l’Intelligenza Artificiale in Sanità. Eccole di seguito per come riportate nella suddetta nota del Consiglio dei Ministri:

  • Accessibilità e Intelligenza Artificiale in ambito sanitario e di disabilità
    L’utilizzo dell’Intelligenza Artificiale non può in alcun modo selezionare con criteri discriminatori condizionando e restringendo l’accesso alle prestazioni sanitarie.
    Prioritario è il diritto dell’interessato ad essere informato circa l’utilizzo di tali tecnologie.
    Si promuove la diffusione dei sistemi di AI finalizzati all’inclusione, le condizioni di vita e l’accessibilità delle persone con disabilità.
    L’utilizzo dei sistemi di AI in ambito sanitario deve lasciare impregiudicata la spettanza della decisione alla professione medica.
  • Ricerca e sperimentazione scientifica per i sistemi di AI in ambito sanitario
    I trattamenti di dati, anche personali, eseguiti da soggetti pubblici e privati senza scopo di lucro per la ricerca e la sperimentazione scientifica nella realizzazione di sistemi di intelligenza artificiale per finalità terapeutica e farmacologica, sono dichiarati di rilevante interesse pubblico.

Articoli correlati

Articolo 1 di 5