I risultati degli Stati Generali della Sostenibilità Digitale hanno definito quattro priorità strategiche per l’implementazione di un’Intelligenza Artificiale responsabile nelle aziende italiane
La terza edizione degli Stati Generali della Sostenibilità Digitale, conclusasi recentemente a Varignana (Bologna), ha riunito oltre 150 top manager delle più importanti aziende italiane pubbliche e private. L’evento, organizzato dalla Fondazione per la Sostenibilità Digitale, ha focalizzato l’attenzione sull’introduzione responsabile dell’Intelligenza Artificiale nelle organizzazioni, analizzando le sfide e le opportunità legate alla sua adozione in un’ottica di sostenibilità.
Il Presidente della Fondazione, Stefano Epifani, ha sottolineato l’importanza di un approccio multidisciplinare alla trasformazione digitale: “Anche quest’anno incontrarsi per due giorni ci ha consentito di condividere problemi, approcci e soluzioni, costruire strategie comuni, comprendere come a partire dalla trasformazione digitale si possa far bene alla propria azienda ed al paese”.
Gruppi di lavoro e confronto
Il programma ha incluso sessioni parallele, tavole rotonde e gruppi di lavoro, con l’introduzione innovativa dei “gruppi di confronto Balint” per stimolare la riflessione sulle dinamiche relazionali e decisionali. Un’ampia parte del dibattito si è concentrata sugli impatti della sostenibilità legati all’adozione dell’IA, cercando di capire come questa tecnologia possa contribuire allo sviluppo sostenibile, all’economia e al benessere sociale, riducendo al contempo l’impatto ambientale. L’obiettivo è stato quello di definire una tabella di marcia per l’implementazione sostenibile dell’IA in azienda.
Le quattro priorità strategiche
Il confronto ha portato all’identificazione di quattro priorità strategiche: la prima, votata dall’85,71% dei partecipanti, riguarda il miglioramento della relazione tra i “C-Level” aziendali (i manager con maggiori responsabilità), promuovendo una visione integrata dell’IA come valore strategico e non solo come tecnologia. Le azioni individuate includono l’identificazione dei problemi e dei relativi impatti (33%), lo sviluppo di nuove competenze (31%) e una chiara attribuzione dei ruoli (25%).
La seconda priorità (67,50%), riguarda la costruzione di rapporti strategici con le Big Tech (grandi aziende che operano nel digitale), identificando gli elementi distintivi di un’IA sostenibile che rifletta i valori aziendali. Le azioni più importanti sono: fare sistema per le scelte tecnologiche (42%), uscire dalle logiche di “vendor lock-in” (rapporto di dipendenza che si instaura tra cliente e fornitore) (23%) e condividere i dati (23%).
Servono nuove politiche aziendali
Tra le priorità emerse, la terza (57,89%) si concentra sull’individuazione degli ambiti di utilizzo dell’intelligenza artificiale, nel rispetto delle normative aziendali e del regolamento europeo sull’IA. Una parte significativa dei dirigenti (69%) ha ritenuto necessaria la definizione di nuove politiche interne, mentre un ulteriore 19% ha espresso preoccupazioni su possibili effetti negativi di regolamentazioni inadeguate.
La quarta priorità (46,34%), invece, riguarda la collaborazione interna, con la necessità di promuovere processi virtuosi e un forte coordinamento tra i vertici aziendali e tutte le parti interessate. Il direttore informatico (CIO), in questo ambito, gioca un ruolo chiave nel diffondere i principi di sostenibilità legati all’IA. Interessante notare che quasi la metà dei partecipanti (46%) ha richiesto la figura di un responsabile dedicato all’intelligenza artificiale, mentre il 42% ha sottolineato l’importanza dell’allineamento con gli altri dirigenti. Un dato degno di nota è la sfiducia espressa dal 4% dei partecipanti nei confronti del CIO; segnale di una potenziale necessità di ridefinire ruoli e responsabilità in questo ambito.
Il ruolo del CIO
Per i direttori informatici, le priorità sono chiare: al primo posto (90,38%) viene la strategia e la gestione dei dati, fondamentali per un uso responsabile dell’intelligenza artificiale. Segue l’integrazione di principi di sostenibilità digitale nell’AI (74,51%), poi la sostenibilità dei modelli di IA stessi (57,69%) e infine la definizione di un sistema di valutazione della sostenibilità (56,86%). In sostanza, l’attenzione si concentra su dati affidabili e su un approccio responsabile all’innovazione tecnologica.
Un documento fondamentale
Il Manifesto per la Sostenibilità Digitale dell’Intelligenza Artificiale, lanciato nel 2023 dalla Fondazione, vuole essere una guida per un approccio responsabile e sostenibile all’IA, identificando come fondamentali i criteri di trasparenza, non discriminazione, equità, sostenibilità economica, sociale e ambientale, privacy e della sicurezza delle informazioni.
“Nel documento vengono presentati i principi e le caratteristiche necessarie per valutare qualsiasi prodotto o servizio realizzato a partire da una Intelligenza Artificiale – ha concluso Stefano Epifani – . Si parte dall’assunto che l’IA non deve essere considerata uno strumento a cui si accede in modo inconsapevole, ma piuttosto una tecnologia che richiede consapevolezza, competenza e capacità critica. L’obiettivo è utilizzare l’IA per costruire un mondo più sostenibile, affrontando i problemi reali che la società si trova a fronteggiare”.
TUTTI GLI ARTICOLI SULL’INTELLIGENZA ARTIFICIALE
© Riproduzione riservata