Si chiama AI Act il documento approvato a Bruxelles che protegge l’uomo da un futuro distopico. Entrerà in vigore gradualmente e sarà attuato entro due anni
Lo scorso 21 maggio i 27 governi riuniti nel Consiglio Telecomunicazioni dell’Ue hanno approvato a Bruxelles, all’unanimità e in via definitiva, l’AI Act, il primo regolamento al mondo sull’utilizzo dell’intelligenza artificiale. Con questo atto l’Unione crea un precedente al quale tutti i paesi dovranno rifarsi, in mancanza di una legislazione analoga negli Stati Uniti.
Perché una legge sull’intelligenza artificiale? Come noto, il termine indica un insieme di tecnologie informatiche in grado di simulare (almeno parzialmente) il pensiero umano che, applicate con spregiudicatezza, possono alterare i valori fondanti della società.
Dal lancio a novembre 2022 di ChatGPT – un software programmato per simulare conversazioni tra esseri umani -, l’IA si è via via appropriata di molti ambiti della vita quotidiana. Tanto che il dibattito su un suo uso scorretto va ormai oltre gli aspetti legati al solo tema lavorativo (le professioni più minacciate sono presumibilmente quelle a più alto rischio di automazione), per abbracciare ambiti particolarmente delicati quali i diritti umani. Il rapporto pubblicato lo scorso anno da AlgoRace, An Introduction to AI and Algoritmal Discrimination for Social Movements, contiene numerosi esempi di usi discriminatori dell’intelligenza artificiale a livello europeo. Ad esempio, un sondaggio di Ibm di fine 2023 ha mostrato che il 42% delle aziende britanniche la utilizza “per migliorare la selezione del personale e le risorse umane”. A rischio, però, racconta la cronaca, è proprio ciò che si vuole garantire, ossia l’imparzialità del giudizio. L’IA, infatti, priva dell’empatia umana, non è da sola in grado di assegnare i ruoli in base alle competenze effettive. Ancora: si parla sempre più dei software di polizia predittiva che sfruttano questo tipo di tecnologia per calcolare dove e quando – in base ai contenuti nelle banche dati – è probabile che una persona commetta determinati tipi di reato. Tuttavia, molte ricerche dimostrano la non validità di questi sistemi come nel caso di Syri, il programma olandese per l’equa distribuzione del welfare (sospeso dalla Corte dell’Aia nel 2020, utilizzato per individuare le persone ‘più propense’ a truffare lo stato. Salvo scoprire che in realtà l’algoritmo, in maniera pregiudiziale, discriminava i migranti e le persone a basso reddito.
Lo sviluppo dell’intelligenza artificiale può fornire enormi benefici collettivi – dalla sanità all’assistenza, dalla sicurezza alla semplificazione delle pratiche nella pubblica amministrazione – ma l’utilizzo va regolamentato, poiché il suo potenziale negativo è altrettanto elevato.
Per questo governare l’impatto che l’IA ha (e avrà) sulla vita delle persone è un dovere di ogni stato, stretto tra due fuochi alla ricerca del giusto equilibrio tra regola e innovazione.
L’AI Act fa un decisivo passo avanti in questa direzione perché, oltre a creare un contesto favorevole alla ricerca per le imprese tutelando la creatività, mira all’imprescindibile protezione dei diritti umani e alla sicurezza dei cittadini.
La legge classifica i sistemi di intelligenza artificiale in base al rischio che rappresentano per le persone – minimo, limitato, alto e inaccettabile – mettendo fuori legge alcune applicazioni di IA che già minacciano i diritti umani. Tra queste, i sistemi di polizia predittiva basati sulla profilazione, perché violano il principio della presunzione di innocenza, e quelli di social scoring (o ‘credito sociale’) – molto utilizzati in Cina -, che derogano agli algoritmi il compito di classificare imprese e cittadini in base ai loro comportamenti. Proibito anche lo scraping, ossia la cattura di immagini facciali da internet o dalle telecamere di sicurezza per creare banche dati. Vietati anche i sistemi di riconoscimento delle emozioni sul luogo di lavoro e nelle scuole e, in generale, quelli che manipolano il comportamento umano o sfruttano la vulnerabilità delle persone.
Il regolamento europeo prevede obblighi di trasparenza per le imprese produttrici di altri sistemi ad alto rischio in grado di arrecare danni alla salute, alla sicurezza, ai diritti fondamentali, all’ambiente e alla democrazia. Rientrano nella categoria, ad esempio, i software per gestire il traffico stradale, valutare i curricula dei candidati, controllare le frontiere o influenzare le elezioni e l’esercizio della democrazia. Per questi vige l’obbligo di trasparenza e sorveglianza umana. Un altro aspetto riguarda la riconoscibilità degli algoritmi: chi è in chat in un sistema artificiale deve sapere di relazionarsi con una macchina. Inoltre, le immagini e i video artificiali o manipolati (i deepfake) dovranno essere chiaramente etichettati come tali. Salvaguardie riguardano poi i modelli che, come ChatGpt, elaborano testi di varia natura con l’immissione dei dati. In questi casi, l’utilizzatore deve dichiarare le fonti utilizzate e rispettare i diritti d’autore, utilizzando articoli di giornali o testi di canzoni.
L’AI Act entrerà in vigore gradualmente per dare il tempo a enti pubblici e privati di adeguarsi alle nuove regole. La completa attuazione è prevista entro due anni, quando scatteranno anche le sanzioni per le imprese fuori legge, fino a 35 milioni di euro.
Intanto, il 23 aprile scorso, il Consiglio dei ministri ha approvato un disegno di legge sugli aspetti più cruciali dell’IA, quali la tutela del trattamento dei dati personali e del lavoro. Se passerà, il disegno di legge affiancherà il regolamento europeo intervenendo sull’aspetto penale con l’introduzione di un nuovo reato: la reclusione da 1 a 5 anni per chi crea danno sfruttando l’abilità di una macchina di mostrare capacità umane quali il ragionamento, l’apprendimento e la creatività.
© Riproduzione riservata