L’intelligenza artificiale è diventata uno dei pilastri della società occidentale e si sta impadronendo di porzioni sempre più ampie della vita delle persone. Ma quali possono essere le possibili ripercussioni?
Lo sviluppo delle tecnologie digitali e la loro pervasività nelle nostre vite ha portato cambiamenti epocali e opportunità sempre nuove in molti campi, dal lavoro alla salute, dal tempo libero alla cura della persona, fino all’ambiente. Diventa necessario, quindi, ragionare sull’etica che deve sottendere al mondo digitale – dalla progettazione di nuovi strumenti fino al loro utilizzo – per massimizzare i vantaggi di ciò che oggi definiamo Intelligenza Artificiale (IA) e minimizzarne i rischi.
«Il fine è raggiungere un equilibrio che spesso è delicatissimo e richiede costante controllo tra opportunità, diritti, valori e rischi – ha spiegato a 50&Più Mariarosaria Taddeo, professore associato presso l’Oxford Internet Institute della Oxford University e vicedirettrice del Digital Ethics Lab -. In molti casi l’IA ha un uso solo commerciale, ma questo non deve farci dimenticare che essa è una tecnologia potentissima che ci offre strumenti per vincere sfide importanti come combattere il cambiamento climatico, trovare le cure per malattie complesse tipo l’Alzheimer o il diabete, per esempio. Provare a vincere queste sfide è una responsabilità intra e intergenerazionale: come spiegheremo ai nostri nipoti che non siamo riusciti a fare il miglior uso dell’IA per lasciar loro un mondo migliore?».
Di quale tipo di intelligenza parliamo quando ci riferiamo alle macchine?
La definizione di IA rimanda a quelle macchine che sono in grado di eseguire compiti molto complessi. Esse non hanno nessuna comprensione della realtà, ma riescono a operare in maniera efficiente perché sfruttano le correlazioni fra le cose. L’IA non ha nulla a che fare con l’intelligenza degli esseri umani perché non ha intuizioni, idee, emozioni, sentimenti, consapevolezza di sé, ma semplicemente manipola correttamente, e molto velocemente, una grande mole di dati.
Quali sono le potenzialità che offre?
Nel 2015 le Nazioni Unite hanno lanciato un programma d’azione per le persone e il pianeta, che mette insieme gli Obiettivi di Sviluppo Sostenibile; questi, se raggiunti entro il 2030, permetteranno di lasciare un mondo migliore alle generazioni future. L’IA può essere utilizzata a supporto di tutti questi obiettivi, come ci dicono diversi studi nel settore. Possiamo immaginarla come strumento che permette di migliorare la salute degli individui, di supportare società pluraliste, di favorire la scolarizzazione nei Paesi in via di sviluppo, di migliorare l’ambiente. Ovviamente queste opportunità si portano dietro anche dei rischi.
È possibile tracciare un quadro dei rischi e delle questioni etiche che sollevano?
Ad un alto livello di analisi i rischi relativi all’IA rientrano in cinque categorie: perpetrazione del pregiudizio, mancanza di trasparenza e controllo, attribuzione della responsabilità per le azioni dell’IA, impatto di questa tecnologia sulle capacità professionali, limitazione della nostra autodeterminazione. Mi soffermo solo su tre di queste categorie. La perpetrazione del pregiudizio, e quindi della discriminazione, è forse uno dei rischi più diffusi e che è necessario correggere subito. L’IA impara dai dati che le vengono forniti, e se questi contengono un pregiudizio, per esempio rappresentano solo uomini bianchi, essa si comporterà come se esistessero solo uomini bianchi. Faccio un esempio: immaginiamo che negli ultimi decenni i prestiti bancari siano stati accordati a molti più uomini bianchi, fra i 30 e i 50 anni e con un lavoro stabile, rispetto a donne della stessa fascia di età. Se un sistema di IA impara a valutare le richieste di prestito sulla base di questo campione, potrebbe rifiutare la domanda inoltrata da una donna di 25 anni. E non perché la macchina discrimini o la persona non sia adatta, ma perché il campione sul quale l’IA ha imparato non rispecchia quel soggetto. Anche se la macchina non ha l’intenzione di discriminare, l’effetto è proprio quello. Per fortuna lo si può correggere valutando la rappresentatività dei dati usati per sviluppare questi sistemi, controllando i risultati dell’IA, e usando criticamente questa tecnologia. C’è poi il problema della mancanza di trasparenza. Dei sistemi di IA spesso conosciamo i dati in ingresso e quelli in uscita ma non si può spiegare perché quel risultato è stato determinato. Ritornando al nostro esempio, spesso non possiamo spiegare se il prestito sia stato negato ad una donna per ragioni inerenti al suo reddito o per una discriminazione. Anche in questo caso il controllo dei risultati e l’uso critico della tecnologia ci aiutano a mitigare questo rischio. Infine si apre la questione dell’autodeterminazione: l’IA è una tecnologia proattiva e si configura come un agente che media tra noi e l’ambiente, indirizzando le nostre scelte e a volte le nostre opinioni. Si va dai consigli sul prossimo libro da leggere (in base ai libri che si sono comprati di recente) alla personalizzazione delle informazioni che riceviamo usando i motori di ricerca o i social network. Se un po’ di mediazione tra noi e l’ambiente ci aiuta ad orientarci meglio, a guadagnare tempo, un po’ troppa mediazione erode la nostra capacità di autodeterminarci, di scegliere. Tutti questi rischi devono essere letti come sfide che si possono vincere, perché hanno a che fare con il modo in cui progettiamo, regolamentiamo e usiamo la tecnologia. Dobbiamo solo far sì che queste considerazioni etiche siano parte dello sviluppo, dell’uso e della regolamentazione dell’IA. L’Europa, in questo senso, con l’emanazione del GDPR, il Regolamento Ue in materia di trattamento dei dati personali e privacy, ha fatto grandi passi.
È possibile “educare” gli utenti all’uso della tecnologia?
Gli utenti vanno “educati” affinché conoscano e abbiano familiarità con ciò che usano, e capiscano che, pur trattandosi di macchine senza coscienza né consapevolezza – che non prenderanno il controllo come nei libri di Asimov – determinano comunque dei rischi. Questa educazione deve essere capillare e passare per la scuola come per i media: è un processo sul quale siamo in ritardo e che va colmato perché il digitale è ormai un’infrastruttura delle nostre società, un elemento della realtà in cui viviamo, una colonna portante. In filosofia della tecnologia si parla di “tecnologie trasformative”: pensiamo alla corrente elettrica e a come ha cambiato il modo di vivere, permettendo di gestire il tempo indipendentemente dalla luce naturale. Il digitale è ancora più trasformativo, perché modifica il modo in cui facciamo le cose (si pensi alla spesa online), ma anche il modo in cui comprendiamo la realtà intorno a noi: per esempio, oggi consideriamo reale non solo tutto quello che è fisico ma anche quello che è virtuale. Questi cambiamenti coinvolgono tutti e bisogna esserne consapevoli per comprendere i limiti e i rischi del digitale, ma anche per saperne individuare il potenziale e sfruttarlo. L’educazione dei cittadini alla tecnologia non può colmare un vuoto regolamentativo. Il primo passo per una buona gestione del digitale è la sua governance etica.
Qual è la sfida che riguarda l’IA rispetto al crescente invecchiamento della popolazione?
Si parla da tempo di digital divide e spesso le analisi del divario digitale si concentrano sulla disparità tra il Nord e il Sud del mondo. Poi ci si è resi conto che anche all’interno degli stessi Paesi del nord ci sono differenze importanti. Nel nostro Paese, con la pandemia abbiamo visto come il digital divide abbia inciso, per esempio, sulla didattica a distanza, con l’accesso all’istruzione limitato dalla mancanza di computer in molte famiglie o dalla connessione lenta. Però il divario digitale colpisce anche in maniera trasversale. Altro esempio: quando è iniziato il tracciamento dei contatti per limitare la diffusione del Covid-19, intere fasce di popolazione sono rimaste tagliate fuori da esso perché prive di competenze digitali necessarie ad installare l’applicazione sul cellulare o perché non possedevano uno smartphone. La prima sfida, quindi, non è legata all’IA ma al digitale, garantendo la sua accessibilità in maniera equa, perché è proprio da esso che passa la fruizione di servizi sempre più essenziali per tutti.
© Riproduzione riservata