Paesi e culture a confronto per regolare lo sviluppo dell’IA

Un saggio di Giusella Finocchiaro analliza la correlazione, oggi molto stretta, che intercorre tra sviluppo tecnologico, equilibri geopolitici e crescita economica.

Massimiliano CannataMassimiliano Cannata

Regolare lo sviluppo del digitale, compito molto arduo per il legislatore che deve sintonizzarsi con le dinamiche evolutive di un mondo che cambia a una rapidità mai sperimentata nel passato.

Giusella Finocchiaro, professore ordinario di diritto privato e di diritto di Internet dell’Università di Bologna, impegnata a livello internazionale su questa difficile frontiera, nel saggio Diritto dell’intelligenza artificiale (ed. Zanichelli) va oltre il terreno articolato della giurisprudenza di settore per analizzare la correlazione, oggi molto stretta, che intercorre tra sviluppo tecnologico, equilibri geopolitici e crescita economica.

 

Giusella Finocchiaro, docente di diritto privato e di diritto di Internet a Bologna
Giusella Finocchiaro, docente di diritto privato e di diritto di Internet a Bologna

Professoressa Finocchiaro, la tecno scienza corre, trasforma le nostre vite, modificando comportamenti, relazioni, abitudini, siamo dentro un grande “cantiere” aperto. La legislazione europea sta rispondendo bene alle sollecitazioni?

Il vecchio Continente sta di fatto costruendo la propria “sovranità” digitale, partendo dalla consapevolezza che questo settore sarà decisivo per le prospettive di crescita globale. Il processo di normazione può farsi risalire alla “direttiva-madre” che riguarda la protezione dei dati personali, del 1995, e le firme elettroniche del 1999. Oggi l’identità digitale è normata con il Regolamento e-IDAS 2; la protezione e la valorizzazione dei dati personali con il GDPR, il Data Act, il Data Governance Act e il Regolamento sullo spazio europeo dei dati sanitari; l’ambito dei servizi digitali e del mercato digitale, con il Digital Services Act e il Digital Markets Act; e, infine, l’intelligenza artificiale, con il recente AI Act .

L’Italia come si colloca in questo quadro in divenire?

Possiamo dire di essere in uno stadio piuttosto evoluto. Il nostro Paese può infatti vantare una tradizione giuridico-normativa sul digitale che risale all’inizio degli anni novanta, con una continuità dell’impegno confermata dall’agenda della Camera, che sta lavorando per licenziare un disegno di legge proprio sull’intelligenza artificiale.

L'IA è il tema centrale del saggio. Quali aspetti si possono normare in una materia così delicata?

Occorre primariamente chiedersi se sia opportuno per il legislatore adottare un approccio volto a disciplinare l’intelligenza artificiale nel suo complesso o piuttosto regolare le applicazioni dell’intelligenza artificiale in specifici settori o singole materie. La prima opzione è quella adottata dal Regolamento europeo sull’intelligenza artificiale che segue un approccio normativo orizzontale. La seconda è quella auspicata da alcune organizzazioni internazionali, in cui si è ritenuto fosse preferibile normare le applicazioni di intelligenza artificiale o, più precisamente, gli effetti di esse, in specifici ambiti. La questione fondamentale sottesa alla scelta dell’uno o dell’altro approccio è quella concernente lo scopo della regolazione. Due sono le strade: dettare regole nuove per disciplinare un fenomeno inedito, o invece limitare l’intervento normativo a quanto necessario per superare o rimuovere gli ostacoli giuridici all’utilizzo della tecnologia.

Da giurista quale strada consiglierebbe di adottare?

Non c’è una strada giusta in assoluto, gli ambiti del diritto che intersecano la regolazione dell’intelligenza artificiale sono molteplici: dalla protezione dei dati personali trattati da sistemi di intelligenza artificiale al diritto d’autore, dalla responsabilità civile a quella penale. La materia è molto articolata, richiede una visione di insieme e una grande capacità di coerenza disciplinare. Con l’AI Act il legislatore europeo ha inteso salvaguardare non soltanto i diritti fondamentali, ma anche i “valori” europei. Non si tratta soltanto di regole giuridiche, ma anche della cultura che quelle regole esprimono.

L'IA ha impresso un’accelerazione alla rivoluzione digitale in atto. Con quali conseguenze giuridiche?

Le questioni al riguardo sono molteplici. Il primo aspetto che emerge è il contrasto tra l’esigenza di disporre di un’ingente mole di dati ai fini dello sviluppo di sistemi di intelligenza generativa e la necessità contrapposta di osservare il principio di minimizzazione dettato dal GDPR (regolamento generale dell’UE che disciplina il trattamento dei dati da parte di aziende, associazioni, enti n.d.r) secondo cui il trattamento dovrebbe avere ad oggetto soltanto le informazioni strettamente necessarie e pertinenti in relazione alle finalità perseguite. Dall’utilizzazione di dati qualitativamente non corretti, non possono infatti che scaturire elaborazioni non corrette, secondo il noto principio “garbage in, garbage out”, spazzatura genera spazzatura per dirla in termini semplici. Sarà perciò necessario un grande lavoro di coordinamento per governare il rischio che porterà, è facile prevedere, a una revisione del GDPR.

Europa, USA, Cina, si muovono in uno scacchiere che vede una pericolosa commistione tra potere e tecnologia. Il fenomeno della "tech right" è emblematico sotto questo profilo. Dove stiamo andando?

Il mercato delle nuove tecnologie e, specificamente, dell’intelligenza artificiale è senza dubbio un mercato globale, che appare sostanzialmente diviso in tre aree di influenza: quella europea, quella statunitense e quella cinese. Il modello adottato in Europa è quello regolatorio: si intende non soltanto normare e disciplinare i nuovi fenomeni, le nuove tecnologie e i nuovi beni, ma anche promuovere il cosiddetto “effetto Bruxelles”, e cioè proporre il modello europeo come un riferimento globale. Il modello adottato negli Stati Uniti, dovendo semplificare, è un modello co - regolatorio, basato sull’antitrust. Quello cinese, invece, appare un modello dirigistico e basato sul capitalismo di Stato. Trovare un punto di incontro tra questi diversi approcci non sarà certo facile, ma risulterà necessario. Diverse organizzazioni internazionali si stanno muovendo in questa direzione a cominciare da Uncitral (La Commissione delle Nazioni Unite per il diritto del commercio internazionale, consesso presso cui la stessa Finocchiaro è rappresentante per l’Italia, n.d.r), cui si è aggiunta di recente la Convenzione stipulata dal Consiglio d’Europa sull’IA.

Cultura del diritto certo, ma anche responsabilità, anche questo un termine critico non crede?

Direi essenziale. L’IA è uno strumento utilissimo e potentissimo, ma è necessario che chi la utilizza sia responsabile. Vengo agli aspetti legali, il mio mestiere. La questione che più frequentemente si pone è l’individuazione del soggetto responsabile nel caso di danni cagionati da applicazioni di intelligenza artificiale. In particolare, l’attenzione si sta focalizzando sui casi in cui l’esito dell’elaborazione effettuata dall’applicazione delle intelligenze generative non sia del tutto controllabile a priori e sia caratterizzata da un certo grado di imprevedibilità: Mi riferisco a quelle situazioni in cui il processo non ha una natura prettamente deterministica (pensiamo una macchina che si muove con guida automatica per esempio), perché caratterizzato da una certa autonomia elaborativa. In queste situazioni il responsabile è il fornitore, il distributore, l’utilizzatore o il sistema di IA stesso?

Come si rivolve il dilemma?

Si può cercare di adottare norme già esistenti per regolare un fenomeno nuovo oppure, andare verso l’elaborazione di un nuovo paradigma legislativo. Inoltre potrebbe rivelarsi opportuno adottare un modello di responsabilità che sia un sistema puro di allocazione del rischio, prescindendo dalla ricerca dell’errore, e ripartendo i costi sui soggetti che sono parte dell’operazione economica, in modo collettivo, eventualmente prospettando la costituzione di un fondo ovvero la formulazione di meccanismi di assicurazione in capo ai soggetti che potrebbero essere chiamati a risarcire il danno. Come si vede la materia è molto ampia, va affrontata con consapevolezza, equilibrio, competenza, rispetto della diversità delle culture giuridiche che si confrontano nel panorama internazionale.

Riproduzione riservata © il Nord Est