Si chiama Good AI LAB il centro che si occupa di elaborare sistemi di intelligenza artificiale affidabili. A coordinare il team di ricerca dell’Università, Francesco Marcelloni: «Sviluppiamo e promuoviamo ‘buona’ IA»
A marzo il Parlamento europeo ha approvato l’AI Act, la legge sull’intelligenza artificiale (IA) che garantisce la sicurezza e il rispetto dei diritti fondamentali e promuove l’innovazione. All’interno del documento si parla anche di trasparenza dei sistemi di intelligenza artificiale. «Significa che dobbiamo essere in grado di capire e di spiegare come lavorano questi sistemi», afferma Francesco Marcelloni, professore di Sistemi di Elaborazione delle Informazioni presso il Dipartimento di Ingegneria dell’Informazione all’Università di Pisa. Marcelloni è anche coordinatore del Good AI LAB, il laboratorio multidisciplinare inaugurato pochi mesi fa che studia e promuove sistemi di IA affidabili, sicuri ed etici che permettono di distinguere una ‘buona’ intelligenza artificiale dalle altre proposte.
Professore, quali sono i rischi nell’utilizzo dell’intelligenza artificiale?
Possiamo distinguere due tipologie: quelli generati da “come addestriamo il sistema” e quelli relativi all’“uso che ne facciamo”. I primi sono legati all’apprendimento automatico per cui il sistema potrebbe essere non robusto quando si presentano casi differenti da quelli su cui è stato addestrato e inoltre può ereditare eventuali pregiudizi presenti nei dati. Un esempio noto in letteratura è il sistema di selezione del personale sperimentato da Amazon qualche anno fa. Visto che era stato addestrato con curricula ricevuti prevalentemente da uomini, il sistema penalizzava le candidature femminili. Il secondo tipo di rischi è legato a “come utilizziamo” il sistema e su questo aspetto è la parte di giurisprudenza ed etica a svolgere il ruolo più importante.
E i vantaggi?
I vantaggi sono più ‘evidenti’. Pensiamo, ad esempio, al settore medico: oggi esistono sistemi in grado di esaminare radiografie e fare diagnosi, analizzare i dati clinici dei pazienti per prevedere il rischio di sviluppare specifiche malattie. Ci sono poi sistemi di IA ‘generativa’ come ChatGPT o Bard (specializzati nella conversazione con un utente umano, ndr) che interagiscono con gli utenti come fossero essere umani. Si tratta di applicazioni che si basano sul Large Language Model (LLM), modelli capaci di generare ed elaborare linguaggi con molteplici possibili applicazioni in vari contesti.
Lei è anche il coordinatore del Good AI Lab, uno spazio per la ‘buona’ intelligenza artificiale. Di cosa si tratta?
L’idea di Good AI Lab prende forma dal fermento nato dai finanziamenti del Pnrr. Dopo l’approvazione del Piano a livello nazionale sono partite diverse linee di ricerca a cui collaborano le università italiane. Una di queste è dedicata all’intelligenza artificiale ed è organizzata con un’entità centrale – chiamata hub – e dieci centri sparsi sul territorio nazionale che fanno attività di ricerca. A Pisa esiste uno di questi centri che si occupa, in particolare, degli aspetti di interazione tra l’IA e gli esseri umani. La cosa interessante è che sviluppa ricerca in modo multidisciplinare includendo esperti di tecnologie ma anche di aspetti legali, etici, economici, linguistici, eccetera. Da qui ha preso vita il Good AI Lab che offre servizi di supporto alle aziende e alla pubblica amministrazione per lo sviluppo di sistemi di ‘buona’ IA e l’analisi della loro conformità all’AI Act, in modo da evitare che i sistemi prodotti siano rischiosi per gli individui e la società.
Qual è la rotta del nostro paese? A che punto siamo rispetto all’Europa?
I fondi del Pnrr hanno stimolato attività in tutti i centri coinvolti, avvicinando ricercatori esperti a giovani di talento: per questo si è creato un network di esperti del settore. L’Italia è a buon punto in merito alla ricerca sull’intelligenza artificiale – anche facendo un raffronto con gli altri paesi europei – e sta offrendo al momento interessanti opportunità ai giovani. Il problema sarà il futuro. Tra un anno e mezzo i finanziamenti del Pnrr finiranno e solo se saremo riusciti a creare una sinergia con il mondo produttivo e ad attrarre finanziamenti privati le competenze acquisite da questi giovani potranno diventare un volano per lo sviluppo del nostro paese.
Il digital divide preclude l’utilizzo di alcuni strumenti a certe fasce della popolazione. L’intelligenza artificiale potrebbe colmare la distanza?
L’intelligenza artificiale potrebbe essere un aiuto per colmare il digital divide. Potrebbe consentire di sviluppare degli approcci di Life Long Learning (apprendimento permanente, ndr) che aiutino a ricollocare persone che hanno perso il lavoro oppure potrebbe aiutare a costruire percorsi semplici che consentano a chi ha un rapporto ostico con la tecnologia di acquisire un po’ di conoscenze sull’argomento. E poi l’IA potrebbe semplificare l’interazione tra uomo e macchina rendendola più intuitiva. Nella quotidianità dei senior, ad esempio, potrebbe aiutare le persone a mantenere la propria autosufficienza il più a lungo possibile, colmando eventuali difficoltà. ChatGPT potrebbe essere impiegato per progetti di stimolazione cognitiva. Mentre in campo medico i sistemi di IA potrebbero utilizzare i dati raccolti da alcuni sensori per diagnosi e prevenzione.
© Riproduzione riservata