Mental health

Intelligenza artificiale e salute mentale

Le tecnologie digitali, e in particolare i sistemi di intelligenza artificiale, sono un’opportunità interessante per la salute mentale ma, per certi aspetti, rappresentano anche una possibile criticità. Ecco cosa si dovrebbe fare perché l’AI sia sempre guidata da principi scientifici, etici e di privacy

Pubblicato il 06 Apr 2022

Fidelia Cascini

Ricercatrice e Docente di Igiene e Sanità Pubblica, Univ. Cattolica S. Cuore - Digital Health expert, DGSISS Ministero della Salute - Membro Gruppo PNRR Telemedicina, Agenas - Referente italiano Global Digital Health Partnership

intelligenza-artificiale-salute-mentale

Nel mondo, si stima che oltre il 10% delle persone soffra di disturbi della salute mentale. La pandemia di Covid-19 ha causato un aumento di depressione e ansia principalmente dovute all’isolamento e alla paura.
Inoltre, l’Organizzazione Mondiale della Sanità (OMS) ha registrato, a causa della pandemia, un’interruzione dei servizi per la salute mentale nel 93% dei Paesi del mondo: interruzioni di terapie di gruppo, appuntamenti cancellati, accessi ridotti alle strutture sanitarie in caso di sintomi e un numero di professionisti specialisti insufficiente.

intelligenza-artificiale-salute-mentale
Percentuale di popolazione con disturbi di salute mentale (infografica: Our World in Data; fonte dati: IHME – Global Burden of Disease)

Intelligenza artificiale e salute mentale: vantaggi e criticità 

Le tecnologie digitali, e in particolare i sistemi di intelligenza artificiale, sembrano essere un’opportunità interessante, ma per certi aspetti rappresentano anche una possibile minaccia per la salute mentale.
Gli studiosi d’intelligenza artificiale nell’ambito dell’informatica affettiva, infatti, stanno ancora testando i confini di ciò che si possa e non possa fare per caratterizzare il comportamento umano partendo dal riconoscimento delle emozioni. Si sa, infatti, come stesse espressioni del volto o posture del corpo possano significare cose diverse in culture diverse e, perciò, come non sia corretto fidarsi dell’analisi dei movimenti facciali per riconoscere le emozioni.

Esistono, però, anche interessanti filoni di ricerca che mirano a trasformare prodotti della tecnologia come i robot in collaboratori e compagni intelligenti utili per il benessere mentale degli esseri umani, rendendo le interazioni uomo-robot sempre più naturali.
Un robot umanoide potrebbe, ad esempio, sorridere in risposta ad un sorriso umano e tale azione-specchio sostenere una reazione umana positiva.

Sono stati in proposito sviluppati modelli di terapeuti virtuali, come Ellie,  per raccogliere segnali non verbali e guidare di conseguenza la conversazione con un paziente, ad esempio mostrando un cenno affermativo del capo o esprimendo un “hmmm” al momento giusto. Il motivo ispiratore alla base di queste ricerche è che, se si desidera che sistemi tecnologici innovativi siano di aiuto per la salute mentale degli esseri umani, è necessario che essi sviluppino un’idea di come l’essere umano si sente emotivamente in diverse circostanze.

Quello dell’affective computing, ossia del riconoscimento delle emozioni mediante l’uso delle tecnologie, si prevede diventerà un settore da circa 37 miliardi di dollari entro il 2026.

ellie-salute-mentale-intelligenza-artificiale
Ellie, l’avatar digitale creato dalla University of Southern California contro ansia e depressione (fonte: USC)

Esempi d’uso improprio dell’informatica affettiva

Negli Stati Uniti, ad esempio, è accaduto che alcune aziende abbiano utilizzato software di intelligenza artificiale per analizzare espressioni del viso e atteggiamenti posturali delle persone, durante interviste di lavoro, allo scopo di stabilire uno score di eleggibilità dei candidati per l’impiego lavorativo e – collateralmente – anche per informare il datore di lavoro se l’intervistato fosse di temperamento tenace e bravo a lavorare in squadra.
In Paesi come gli Stati Uniti e la Corea del Sud, le assunzioni assistite dall’intelligenza artificiale sono così diventate sempre più popolari, al punto da stimolare iniziative come l’addestramento di neolaureati e persone in cerca di lavoro su come essere intervistati in presenza di un algoritmo.
Al proposito, occorre osservare che, negli USA, sono già abituati ad usi di macchinari – tipo le macchine della verità – che sono in qualche modo sistemi per il rilevamento delle emozioni e hanno un modello di regolamentazione – l’Employee Polygraph Protection Act – che ne limita l’uso da parte di datori di lavoro privati.

Non sono mancati, peraltro, tentativi di sperimentazione di queste tecnologie in diversi ambiti come quelli della scuola e delle aule di giustizia.

Per facilitare lo sviluppo della ricerca proteggendo i diritti della persona, le linee di intervento su cui indirizzare gli sforzi dovrebbero essere sostanzialmente tre:

  1. ricerca scientifica
  2. regolamentazione normativa
  3. impegno delle aziende.

Analizziamo in dettaglio queste tre possibili linee d’intervento.

Indirizzare la ricerca scientifica 

Bisognerebbe, anzitutto, intensificare e meglio indirizzare la ricerca scientifica, puntando al conseguimento di un consenso all’interno della comunità scientifica sulle combinazioni dei segnali fisiologici ritenuti più rilevanti per i cambiamenti emotivi, le cui esperienze di base sono altamente individuali. Questo permetterebbe di misurare l’efficacia dei sistemi di calcolo affettivo superando gli ostacoli legati al loro essere ancora poco affidabili, per mancanza di specificità e generalizzabilità.

Le relazioni qualitative delle emozioni dovrebbero quindi essere quantificate, affinché le strutture interne umane possano essere mappate su entità software.

Una regolamentazione normativa specifica per la Salute 

Bisognerebbe, inoltre, contrastare la diffusione non regolamentata, non convalidata e scientificamente infondata di applicazioni delle tecnologie basate sull’intelligenza artificiale in alcuni ambiti dell’affective computing che alimentino asimmetrie di potere tra persone.
Si dovrebbe, quindi, procedere con una regolamentazione specifica della materia, con particolare riferimento all’ambito della Salute, che riguardi sia il settore pubblico che quello privato del mondo della tecnologia e di quello della Sanità.

Così come esistono processi chiaramente definiti per certificare che determinati prodotti che consumiamo siano sicuri – sia che si tratti di cibo che mangiamo, che di farmaci che assumiamo – occorre che siano disciplinati i processi sugli usi delle tecnologie per soddisfare determinati standard di sicurezza.

In Europa, abbiamo già una proposta di regolamento sull’Intelligenza Artificiale che ne vieta le applicazioni per usi che possono ledere i diritti della persona. Ma non è sufficiente. Questi stessi principi dovrebbero essere condivisi a livello internazionale vietando l’uso delle tecnologie per il riconoscimento delle emozioni in ambiti di decisioni importanti che hanno un impatto sulla vita delle persone.

L’impegno delle aziende che operano nell’informatica affettiva

Le aziende tecnologiche operanti nel settore dell’informatica affettiva dovrebbero impegnarsi per evitare che la ricerca sul riconoscimento delle emozioni venga utilizzata per usi commerciali redditizi indipendenti da principi scientifici, etici e di privacy.

Inoltre, poiché neanche i computer possono essere puramente oggettivi, visto che la creazione degli algoritmi avviene per opera di esperti con basi di conoscenza individuali, le aziende tecnologiche dovrebbero percepire la responsabilità di impedire contaminazioni dei software da parte di pregiudizi umani che implicano inevitabilmente bias analitici e cognitivi del sistema.
Forse non tutti conoscono, ad esempio, il caso dei giocatori professionisti di basket neri che, sulla base delle espressioni facciali usate per valutare l’occupabilità del candidato, hanno ricevuto punteggi emotivi più negativi rispetto ai bianchi, per i quali la società sportiva di reclutamento è stata accusata di discriminazione razziale.

Sta di fatto che, dopo la pandemia, per ridurre perdite di produttività dovute a stati di esaurimento dei lavoratori, un numero crescente di aziende offre strumenti digitali per la salute mentale ai propri dipendenti.


Questo contributo è frutto della collaborazione tra HealthTech360 e “Pillole di Sanità Digitale”,
la rubrica di Fidelia Cascini (www.fideliacascini.com) sui temi della sanità e delle tecnologie.
Qui trovate il video relativo al presente approfondimento.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 5