La conoscenza dell’uomo nella sua dimensione medico, psicologica ed esistenziale consente la progettazione e realizzazione di robot sempre più simili all’essere umano, al suo comportamento e all’interpretazione degli stimoli esterni. Di converso, costruire un robot permette agli scienziati di conoscere più a fondo l’essere umano.
La robotica è una branca della meccatronica in cui confluiscono approcci di scienze di natura umanistica, linguistica e scientifica in senso stretto: biologia, fisiologia, psicologia, elettronica, fisica, informatica, matematica e meccanica.
Indice degli argomenti
Cos’è un robot umanoide
La multidisciplinarietà della robotica riflette la complessità della materia nell’intento di simulare il comportamento umano. Ad oggi esistono diverse tipologie di robot, dai robot antropomorfi agli umanoidi, quest’ultimi particolarmente utili nel settore della ricerca medico-scientifica.
I primi, richiamando la cinematica, si limitano a simulare il movimento dell’uomo, in particolare dei suoi arti, tenendo conto anche della percezione e, quindi, della capacità di spostarsi negli ambienti fisici. Emblematico esempio di un robot antropomorfo è il noto braccio robotico o braccio umano utilizzato soprattutto in ambienti industriali e catene di montaggio.
Diversamente, i robot umanoidi esprimono con tutta chiarezza la struttura dell’uomo, le sue sembianze in ogni singola parte.
Il robot umanoide iCub per il trattamento dell’autismo
Tra diversi modelli umanoidi è possibile citare, ad esempio, iCub, il robot realizzato dall’Istituto Italiano di Tecnologia quale macchina ispirata ad un bambino di circa 3-5 anni con l’obiettivo di migliorare la qualità della vita di bambini affetti da autismo.
Sembrerebbe che i bambini affetti da tale patologia siano più portati a interagire con una macchina in quanto “generatore di stimoli soft, meno challenging per loro. Attraverso i robot, vengono loro insegnati dei comportamenti molto semplici, come condividere l’attenzione su un certo oggetto o imparare che il robot sta indicando qualcosa quando il suo sguardo cambia direzione. Comportamenti che, invece, mancano nei bambini che soffrono di disturbi del neurosviluppo e che, se vengono appresi, contribuiscono allo sviluppo di una maggiore socialità”.
Robot autonomo: funzioni e caratteristiche
È noto che i robot autonomi – cioè macchine capaci di percepire, mediante appositi sensori, il contesto ambientale e di prendere decisioni funzionali alla situazione in cui si trovano ad operare – si compongono di hardware e di software, e in quest’ultima dimensione si tratta, nello specifico, soprattutto di algoritmi di intelligenza artificiale.
Il software di un robot autonomo non agisce in maniera deterministica, ma consente alla macchina di auto-apprendere grazie ai dati ambientali rilevati dai suoi sensori, in modo da regolare il suo comportamento in maniera sempre più affinata.
Attualmente, siamo nella cosiddetta fase di robot di terza generazione quali macchine autonome dotate di sistemi AI che consentono di generare in autonomia algoritmi di apprendimento automatico e di verificare in maniera autonoma la loro coerenza rispetto alle operazioni da eseguire in un dato contesto ambientale.
I robot sono infatti convenzionalmente costituiti da quattro strutture principali che, lavorando in maniera sinergica, sono in grado di garantire la corretta operatività di sistemi in grado di raggiungere livelli di complessità molto elevate.
Si tratta di:
- struttura meccanica
- sensoriale
- di controllo
- di governo.
È in quest’ultima unità che s’inseriscono i sistemi di raccolta, memorizzazione e computazione dei dati, utili a programmare, calcolare e verificare le attività del robot.
La struttura di governo coincide solitamente con le risorse informatiche alla base del suo funzionamento “cognitivo”.
Le regole nella progettazione di un robot umanoide: cybersecurity, personal data protection ed etica
Prima di arrivare ai “giorni nostri” con gli standard di sicurezza e la regolamentazione europea di cui si dirà più avanti, lo scienziato Isaac Asimov diffuse le tre leggi della robotica, divenute poi quattro con la sua Legge Zero.
- Prima legge: un robot non può ferire un essere umano o, attraverso l’inazione, permettere che un essere umano venga danneggiato;
- Seconda legge: un robot deve obbedire agli ordini impartiti dagli esseri umani, tranne nei casi in cui tali ordini siano in conflitto con la Prima Legge;
- Terza legge: un robot deve proteggere la propria esistenza, purché tale protezione non sia in conflitto con la Prima o la Seconda Legge;
- Legge zero: un robot non può danneggiare l’umanità o, con la sua inazione, permettere che l’umanità venga danneggiata.
Queste quattro leggi hanno dato vita alla cosiddetta roboetica, quale disciplina che promuove la produzione di tecnologie robotiche la cui applicazione non risulti ostile agli esseri umani, oltre ad allineare la robotica agli standard sociali e morali più diffusi.
Si tratta, pertanto, di un’etica pensata per indirizzare l’azione di tutti gli scienziati coinvolti nella realizzazione dei robot.
Etica delle macchine ed etica del dato
A fianco della roboetica esiste l’etica delle macchine il cui obiettivo è quello di indirizzare i sistemi tecnologici nella capacità di gestire in totale autonomia le situazioni morali coerentemente agli standard più diffusi, con una riflessione incentrata sugli impatti delle azioni dal punto di vista etico, sociale e filosofico.
In questa direzione si entra nel vivo dell’etica del dato (legittimità ed eticità della fonte dei dati alimentanti l’algoritmo di AI; le determinazioni etiche dell’algoritmo escludendo qualsiasi tipo di bias che ne potrebbe derivare in base al contesto e all’essere umano che ha scritto l’algoritmo; la proprietà dei dati).
L’etica delle macchine converge in un ecosistema normativo europeo finalizzato alla sicurezza del sistema informatico e, quindi, del dato, nonché alla progettazione etica dello stesso dovendo valutare la qualificazione del rischio, anche di tipo etico, che deriverebbe dalle determinazioni autonome del robot.
Le disposizioni per produttori, distributori, importatori e utilizzatori di robot
Ciascun produttore, importatore e distributore deve tener conto, in particolare:
- delle disposizioni dell’AI Act e degli orientamenti etici sull’Intelligenza Artificiale – ancora attuali – in merito (i) ai quattro pilastri dell’AI: legalità, eticità, robustezza e resilienza; (ii) alla valutazione del rischio che deriva dalla messa in produzione dello stesso tale da qualificare il sistema in una delle categorie di rischio predeterminate dal legislatore europeo. L’intero sistema, insieme al nuovo standard ISO/IEC 42001:2023, impone un uso responsabile dell’AI;
- delle disposizioni del Cyber Resilience Act applicabili a tutti i prodotti (hardware e software)con componenti digitali connessi, direttamente o indirettamente, ad altri dispositivi o reti. La gestione proattiva delle vulnerabilità è un pilastro del Cyber Resilience Act allineandosi alla nuova direttiva NIS 2. I produttori sono tenuti ad implementare un sistema efficace per la gestione delle vulnerabilità che includa la rilevazione, la segnalazione e la correzione tempestiva di qualsiasi problema di sicurezza.
Il Regolamento, inoltre ribadisce l’importanza di separare gli aggiornamenti funzionali da quelli di sicurezza e fornire strumenti per l’aggiornamento automatico, garantendo così che i prodotti rimangano sicuri durante tutto il loro ciclo di vita.
I prodotti con elementi digitali devono essere progettati e sviluppati seguendo i principi di “security by design” e “privacy by design”, che garantiscono che la sicurezza e la protezione dei dati personali siano integrate sin dalla fase di progettazione. Inoltre, i prodotti devono essere forniti con configurazioni sicure di default (“security by default”), che minimizzino il rischio di accessi non autorizzati e proteggano l’integrità e la riservatezza dei dati. Questo approccio non solo aumenta la sicurezza del prodotto ma, anche, la fiducia degli utenti nei prodotti digitali. Anche il Cyber Resilience Act introduce una classificazione dettagliata dei prodotti con componenti digitali basata sul livello di rischio;
- delle disposizioni del cosiddetto Regolamento Macchine dedicate a tematiche di cybersecurity, safety e protezione del dato: “I circuiti di comando che svolgono funzioni di sicurezza siano progettati in modo da evitare che attacchi malevoli possano causare comportamenti pericolosi delle macchine”.
È stato inoltre introdotto un nuovo requisito essenziale di sicurezza e di tutela della salute esplicitamente dedicato alla protezione dei sistemi informatici contro la corruzione.
I tradizionali metodi di protezione delle persone mediante segregazione delle zone pericolose non sono adatti quando gli uomini e le macchine devono condividere uno spazio di lavoro comune, come avviene nelle applicazioni con robot collaborativi (o cobot). Il requisito essenziale di sicurezza e di tutela della salute relativo ai rischi dovuti agli elementi mobili è stato quindi modificato per tenere conto delle nuove soluzioni da adottare per garantire la sicurezza delle persone in applicazioni collaborative, tenendo in considerazione anche gli aspetti di stress psicologico che queste situazioni lavorative possono arrecare. Anche tale Regolamento introduce, nel suo Allegato I, la classificazione dei prodotti in base al rischio;
- delle disposizioni normative e best practices di settore che il produttore, distributore, importatore e utilizzatore devono considerare per garantire un uso responsabile, legale, sicuro ed etico dei robot intesi quali sistemi tecnologici complessi.
Le quattro leggi di Isaac Asimov risultano ancora attuali quali principi di indirizzo per una tecnologia evoluta a supporto della collettività e benessere sociale, soprattutto considerando i settori della ricerca scientifica.