«La ricerca in campo giuridico serve innanzitutto a rispondere a questa domanda», dice Stefano Preziosi, coordinatore scientifico del Centro di Ricerca Intelligenza Artificiale e Diritto
La usiamo più di quanto possiamo immaginare. A volte senza neppure rendercene conto. Dall’assistente virtuale al filtro con cui modifichiamo le foto sui social, l’intelligenza artificiale ha un ruolo sempre più pervasivo. Algoritmi ci suggeriscono acquisti, ci indirizzano verso contenuti multimediali, influenzano le nostre scelte. Una rivoluzione silenziosa che offre vantaggi in termini di comodità ed efficienza, ma che solleva diversi interrogativi, tra cui: come trovare il giusto equilibrio tra l’utilità dell’intelligenza artificiale e il mantenimento della nostra capacità decisionale? Il mondo del diritto è in cerca di risposte, sempre più interessato a individuare la linea di demarcazione tra la responsabilità dell’essere umano e l’intelligenza artificiale. A Stefano Preziosi, avvocato e professore ordinario di Diritto penale presso l’Università degli Studi di Roma “Tor Vergata” e coordinatore scientifico del Centro di Ricerca Intelligenza Artificiale e Diritto (Criad) – fondato proprio quest’anno -, abbiamo rivolto alcune domande sul rapporto in continua evoluzione tra legge e IA.
Quali sono i campi in cui il Criad interverrà?
Con il Criad abbiamo realizzato un primo convegno di studi, Intelligenza artificiale e responsabilità umana, il 7 maggio scorso – in collaborazione con l’Ordine degli Avvocati di Roma e con la sponsorizzazione del Coni e dell’Agenzia Spaziale Italiana -, per rappresentare la complessità degli ambiti del diritto toccati dall’IA (sono intervenuti diciannove relatori sui più diversi temi e discipline e, ciononostante, sono molti di più gli ambiti coinvolti). L’obiettivo è promuovere la ricerca nei settori dove è maggiormente avvertito l’impatto dell’IA sui diritti (pensiamo ai cosiddetti sistemi ad ‘alto rischio’, secondo la definizione dell’emanando regolamento europeo) e nei quali è necessario un intervento del legislatore o una robusta rivisitazione degli istituti giuridici applicabili (penso alla responsabilità da prodotto nel diritto civile e alla responsabilità colposa nel diritto penale, ma anche all’attività contrattuale e a quella provvedimentale della pubblica amministrazione). Altra finalità è la formazione a vari livelli, anche post lauream e di supporto tecnico scientifico a enti e organizzazioni di impresa o di categoria interessati a promuovere la realizzazione di buone pratiche e a favorire la compliance volontaria da parte di chi impiega sistemi di IA.
C’è allarme sulla tenuta dei sistemi democratici per il ruolo sempre più presente dell’IA. Quali possono essere le tutele per i cittadini?
Il tema è quello dei rischi di manipolazione dell’opinione pubblica, soprattutto negli snodi essenziali per la vita democratica, ossia le consultazioni elettorali. Dobbiamo, però, fare attenzione a non confondere i piani. Il problema della possibile manipolazione e delle fake news non ritengo sia figlio dell’IA: nasce più in profondità come segnale di crisi delle democrazie che, per dirla con il paradosso coniato da un grande giurista tedesco, una volta secolarizzate vivono di presupposti che non sono più in grado di garantire. L’IA può esasperare certi meccanismi, facendo smarrire la linea di demarcazione fra il reale e l’immaginario, fra l’informazione come serrato confronto critico con i fatti e la ‘notizia’ quale elaborazione di una rappresentazione della realtà che asseconda le pulsioni dell’immaginario e può seguire qualsiasi linea di sviluppo, analogamente a un reality o a un videogioco. Il diritto, su questo, può avere una funzione determinante in chiave di presidio della trasparenza: deve essere chiaro a chi legge o ascolta se i contenuti sono l’elaborazione della mente umana o di un software di intelligenza artificiale generativa o conversazionale.
Pensa che la definitiva approvazione del regolamento europeo porterà regole nell’attuale Far West digitale?
Il regolamento europeo sull’IA cerca di dare una cornice giuridica alla materia, di stabilire dei princìpi, soprattutto quello secondo cui, almeno nelle intenzioni, l’IA non può correre a briglie sciolte. L’Ue vuole affermare un principio politico e umanistico allo stesso tempo, che l’uomo deve rimanere protagonista dello sviluppo tecnico-scientifico e che i valori politici incarnati dall’Unione non sono assoggettabili a una ‘potenza’ nelle mani delle grandi piattaforme digitali o della grande industria che impiega i sistemi intelligenti. Vuole essere, inoltre, un elemento di rasserenamento delle opinioni pubbliche europee, soprattutto quelle rappresentate dai ceti più deboli ed esposti all’innovazione; vuole mandare un messaggio, che le istituzioni vigileranno affinché l’IA non si traduca in uno strumento nelle mani dei più forti, che può schiacciare i fragili, creare disoccupazione e controllo sociale eccessivo. Questi obiettivi potranno realmente essere perseguiti o rimarranno allo stadio di affermazioni di principio? Non è un caso che il primo quadro giuridico dell’IA nasca in Europa: le società europee probabilmente avvertono di più il bisogno di essere rassicurate su questi temi, rispetto ad altre società extraeuropee meno sensibili su questo.
Non pensa che regolamentare a livello giuridico i sistemi di intelligenza artificiale possa porre, quindi, un limite allo sviluppo scientifico?
Questo è un tema quasi ‘antico’, oggi molto sentito. Il problema non è quello di un freno allo sviluppo tecnologico da parte del diritto, che quasi mai c’è stato nella storia – anzi, semmai è accaduto proprio il contrario, che il diritto abbia aperto le strade allo sviluppo tecnologico – ma, piuttosto, di una conflittualità fra sistemi regolatori e sviluppo tecnico-scientifico. Il diritto si presenta come neutrale, ma nel momento in cui viene applicato non lo è più, perché c’è la volontà e la cultura del giudice che lo deve applicare. Dietro l’angolo può esserci un atteggiamento difensivo e paternalistico che vede l’IA come strumento dei poteri forti – il che, in un certo senso, è anche vero – da cui si devono difendere i più deboli. Ma questo atteggiamento può provocare una tensione, socialmente molto dannosa, fra scienza e diritto, ove non si sia disposti ad ammettere che bisogna pagare un prezzo alla scienza e che il diritto deve funzionare come fattore equilibratore e non come strumento di vendetta verso una società avvertita come ingiusta.
Alla luce di quanto detto, un’ultima domanda: se l’intelligenza artificiale sbaglia, oggi chi dovrebbe pagare?
La ricerca in campo giuridico serve innanzitutto a rispondere a questa domanda: dove allocare la responsabilità umana quando qualcosa va storto. Ma sempre tenendo conto di un aspetto fondamentale: non sempre ci deve essere qualcuno che ha sbagliato e che, perciò, deve pagare. Una cosa sono i meccanismi di socializzazione dei rischi, per cui la vittima va indennizzata per evitare che funga da capro espiatorio in una società del rischio, altra cosa sono i meccanismi della responsabilità vera e propria che, invece, devono essere molto rigorosi, ossia devono far pagare soltanto chi è realmente colpevole e devono ammettere dei rischi che non si correlano ad altrettante responsabilità. Il governo italiano, il 23 aprile scorso, ha varato un disegno di legge e di legge delega in materia di disciplina dell’IA. Vi sono cose interessanti, vedremo quale sarà l’iter parlamentare.
© Riproduzione riservata