Non c’è nulla di più divisivo di tentare di regolamentare la tecnologia.
Da un lato, i sostenitori della deregulation, secondo i quali le regole frenano l’innovazione e il mercato. Dall’altro, i garantisti dei diritti fondamentali dell’uomo, promotori di una visione umanocentrica della tecnologia e additati dai primi – ove ricoprano il ruolo di decisori e legislatori – quali “imbrigliatori” del progresso e dello sviluppo tecnologico in un sistema di leggi e leggine di fatto inapplicabili e, quindi, artefici della paralisi del processo d’innovazione e dei mercati basati sull’economia digitale.
E responsabile di questo freno a mano dell’innovazione, della voglia matta di legiferare sempre e su tutto – a detta dei detrattori – sarebbe proprio l’Europa.
Un convincimento così forte da aver fatto nascere l’aforisma, molto in voga negli USA:
“L’America fa, la Cina copia, l’Europa regola”.
Invero, la complessità dei rapporti tra Diritto e Innovazione tecnologica è qualcosa che va al di là del semplice scontro tra fanatici di opposte fazioni. È un rompicapo metodologico ben noto a economisti, filosofi e studiosi delle tecnologie e del progresso scientifico. Tanto da assurgere a paradosso, come nel caso del cosiddetto dilemma di Collingridge, al quale è legato a doppio filo il pacing problem (problema del ritmo) teorizzato da Larry Downes in “The Laws of Disruption”.
Viste nel loro insieme, tali studi e teorie sottolineano il vero e proprio impasse causato dalle differenti velocità con cui si muovono tecnologia e regolatore.
Una sorta di Achille in cui il legislatore tartaruga insegue disperatamente la tecnologia, senza mai riuscire a raggiungerla. In un contesto in cui è difficile anche capire quando, come e se sia opportuno e possibile intervenire per cambiare il corso di una tecnologia provando a prevenirne (spiacevoli) conseguenze: infatti, quando il cambiamento è ancora facile – questo il pensiero di David Collingridge – non ne comprendiamo la necessità; quando, invece, il bisogno di un cambiamento è evidente, è ormai difficile e costoso introdurlo.
In soldoni: le tecnologie innovative crescono in maniera esponenziale, il legislatore è costretto a inseguirle ma i suoi tempi, in confronto, sono biblici. E intanto – in attesa di regole certe – le aziende non sanno che pesci prendere e restano ferme, impantanate in un percorso a ostacoli che spesso nega loro anche la semplice possibilità di avviare sperimentazioni. Che altrove, invece, corrono veloci. Un ritardo e un gap che non sarà più possibile colmare e che, spesso, farà gettare la spugna a tante realtà innovative, aziende e start-up che magari in altri luoghi – in California, per esempio – avrebbero avuto sorte assai diversa.
Argomentazioni simili sono state sollevate da alcuni esperti anche per l’AI Act, il Regolamento UE sull’Intelligenza Artificiale approvato di recente dal Parlamento Europeo.
Accanto a chi – in tanti, invero – ha esultato definendo l’approvazione dell’AI Act un momento storico e plaudendo all’Europa poiché capace di essere promotore e guida della prima legge al mondo sull’AI, c’è stato anche chi ha sottolineato come, mentre in Europa ci si preoccupa di fare l’arbitro, scrivendo le leggi a cui sottoporre le tecnologie, altrove (America) si fa business, si gioca la partita. E si fanno profitti.
A pensare che – pur essendo giusto che vi siano opportune normative sull’AI – l’Europa sia troppo “arbitro” e poco “giocatore”, ci sono anche alcuni tra i maggiori esperti mondiali di economia digitale:
“Certo, dovrebbero esserci delle normative ragionevoli sull’AI – afferma in un’intervista a Repubblica Alec Ross, imprenditore ed esperto di politiche tecnologiche – ma, a meno che l’Europa non voglia essere una colonia economica degli Stati Uniti e della Cina, allora avremo bisogno di meno avvocati, politici, filosofi e burocrati che stabiliscano strategie e norme per l’AI e di più imprenditori, venture capitalist e ingegneri.
Da troppo tempo, gli europei non sono più protagonisti. È come una partita di calcio. In campo ci sono due squadre, una americana e una cinese. Invece di schierare la propria, gli europei hanno preferito recitare la parte dell’arbitro, che fischia i falli e mostra il cartellino giallo. L’arbitro può contribuire a decidere il risultato della partita, soprattutto se dirige male, ma non è mai lui a vincerla. Se vogliono vincere, gli europei devono mandare in campo la loro squadra“.
L’AI Act rischia dunque di trasformarsi in un reale svantaggio competitivo per le aziende europee?
Non secondo i fautori e sostenitori della bontà e del valore di questo Regolamento che – a sostegno della loro tesi – fanno osservare come, trattandosi di un insieme di regole trasversali che non si applicherà solo alle aziende europee, ma – di fatto – a chiunque si rapporti con il mercato UE, l’impatto e gli effetti dell’AI Act saranno tali da “costringere” produttori e fornitori di AI di ogni parte del mondo ad adeguarsi ad esso, a meno di non voler rinunciare a una fetta di mercato sostanziale quale, appunto, quello europeo.
Come peraltro già avvenuto nel caso del GDPR, in ossequio al noto effetto Bruxelles.
Va anche notato come – almeno in questa occasione – l’Europa non appaia come “la bella addormentata”, quella che – presa dal suo legiferare matto e disperato – non si accorge mai di quanto possa nuocere alle sue stesse imprese e alla loro concorrenza e competitività sul mercato.
L’AI Act, infatti, con l’intento di favorire e promuovere l’innovazione ed evitare il temuto effetto “freno a mano” della regolamentazione, prevede alcune norme ad hoc (ereditate dalla precedente proposta della Commissione UE relativa alla legge sull’Intelligenza Artificiale) pensate proprio per aziende, PMI e start-up.
Una di queste riguarda l’attuazione di opportuni spazi di sperimentazione normativa (regulatory sandbox) i cui obiettivi – come si legge nel testo della Commissione – dovrebbero essere la promozione dell’innovazione in materia di AI mediante la creazione di un ambiente controllato di sperimentazione e prova nella fase di sviluppo e precommercializzazione al fine di garantire la conformità dei sistemi di AI innovativi al presente Regolamento (ora AI Act, ndr.) e ad altre normative pertinenti dell’Unione e degli Stati membri, e il rafforzamento della certezza del diritto per gli innovatori e della sorveglianza e della comprensione da parte delle autorità competenti delle opportunità, dei rischi emergenti e degli impatti dell’uso dell’AI, nonché l’accelerazione dell’accesso ai mercati, anche mediante l’eliminazione degli ostacoli per le piccole e medie imprese (PMI) e le start-up.
E l’AI Act promette alle aziende – soprattutto nel caso di PMI e start-up, vero motore dell’innovazione ma con minori capacità di “autogestione normativa” – di non lasciarle brancolare in solitudine nel consueto buio del periodo post-regolamentazione, invitando gli Stati membri ad adottare le opportune iniziative di comunicazione e formazione delle competenze in materia di AI.
Al fine di promuovere e proteggere l’innovazione – precisa il suddetto testo – è importante che siano tenuti in particolare considerazione gli interessi dei fornitori di piccole dimensioni e degli utenti di sistemi di AI.
È a tal fine opportuno che gli Stati membri sviluppino iniziative destinate a tali operatori, anche relative all’alfabetizzazione in materia di AI, alla sensibilizzazione e alla comunicazione delle informazioni.
Gli Stati membri dovrebbero utilizzare i canali esistenti e, ove opportuno, istituire nuovi canali dedicati per la comunicazione con le PMI, le start-up, gli utenti e altri innovatori, al fine di fornire orientamenti e rispondere alle domande sull’attuazione del Regolamento.
Dunque, premessa l’evidente necessità – su cui concordano praticamente tutti – di normare alcuni aspetti cosiddetti “ad alto rischio” dell’utilizzo dei sistemi di AI, se non altro, questa volta il legislatore sembra essersi accorto anche dell’importanza di non frenare lo sviluppo economico e la competitività delle aziende e delle start-up, studiando e prevedendo misure ad hoc – quali, ad esempio, regulatory sandbox e servizi di formazione delle competenze e di consulenza – per provare al tempo stesso a non rallentare il go to market e a garantire i diritti fondamentali dell’uomo.
Il dibattito di questi giorni è incentrato sul chiedersi se – con l’approvazione dell’AI Act – il legislatore abbia conseguito questo ambizioso obiettivo, riuscendo in qualche modo, per una volta, a superare il paradosso di Collingridge.
Probabilmente, però, è ancora presto per tirare le somme.
Perché l’errore che si sta facendo è considerare l’AI Act come un traguardo e non come punto di partenza:
“Dimentichiamoci di aver passato il traguardo e, piuttosto, sentiamoci sulla linea di start, ai blocchi di partenza, e iniziamo a correre per attuare davvero queste regole – afferma al proposito Guido Scorza, componente del Garante per la protezione dei dati personali -.
Dovremmo considerare queste regole come una scatola metodologica dentro la quale essere bravi a infilare una serie di verticali, perché l’AI è una tecnologia orizzontale che impatterà talmente tanti ambiti della nostra vita che è impossibile pensare che le sue regole siano tutte dentro l’AI Act.
La scommessa, quindi, è prendere il Regolamento, considerarlo un metodo di lavoro e infilarci dentro le discipline verticali: tutela dei consumatori, digitalizzazione della pubblica amministrazione, salute, sanità, giustizia”.
Una scommessa (ancora tutta) da vincere, però.