Febbraio 2025 segna l’entrata in vigore ufficiale delle prime disposizioni dell’AI Act, il regolamento dell’Unione Europea pensato per disciplinare l’uso dell’intelligenza artificiale nei paesi membri.
L’obiettivo principale della normativa è garantire che i sistemi di IA siano sicuri, trasparenti e rispettosi dei diritti fondamentali dei cittadini europei, riducendo i rischi derivanti dall’impiego di tecnologie avanzate.
Quattro livelli di rischio
L’AI Act introduce un approccio basato sul rischio, classificando i sistemi di IA in quattro categorie: rischio inaccettabile (vietati in quanto pericolosi per i diritti fondamentali), alto rischio (soggetti a stringenti requisiti di conformità), rischio limitato (soggetti ad alcuni obblighi di trasparenza) e rischio minimo o nullo (non soggetti a restrizioni particolari).
Pratiche di IA vietate
A partire dal 2 febbraio 2025, l’AI Act proibisce alcune pratiche di IA considerate altamente rischiose. Tra queste figurano le tecniche di manipolazione subliminale, ovvero quei sistemi progettati per influenzare il comportamento delle persone senza il loro consenso consapevole; l’uso di IA che sfrutta le vulnerabilità di categorie fragili come minori o persone con disabilità; i sistemi di social scoring che valutano e classificano gli individui in base al loro comportamento sociale; e l’identificazione biometrica in tempo reale nei luoghi pubblici, salvo eccezioni specifiche per motivi di sicurezza.
Il divieto di queste pratiche mira a garantire un utilizzo etico e responsabile dell’intelligenza artificiale, tutelando i cittadini da possibili abusi.
Obbligo di alfabetizzazione sull’IA
Uno degli aspetti innovativi dell’AI Act riguarda l’obbligo di alfabetizzazione sull’IA per le aziende e le organizzazioni che adottano queste tecnologie. Le imprese sono chiamate a formare il personale per garantire che i dipendenti comprendano il funzionamento dei sistemi di IA e le implicazioni etiche che ne derivano. Inoltre, gli utenti devono essere informati in modo chiaro e trasparente su come interagire con tali tecnologie, per promuovere un utilizzo consapevole e sicuro. L’alfabetizzazione sull’IA diventa quindi un elemento centrale della regolamentazione, con l’obiettivo di creare una cultura digitale più responsabile.
Quali implicazioni per le aziende con l’IA Act
L’entrata in vigore dell’AI Act comporta importanti implicazioni per le aziende che operano nel settore dell’intelligenza artificiale. Per evitare sanzioni, le imprese devono adottare, dal 2 febbraio, una serie di misure di conformità, tra cui la mappatura dei sistemi di IA utilizzati, la valutazione del livello di rischio associato, l’implementazione di misure di trasparenza e la supervisione umana nei sistemi ad alto rischio.
Le aziende dovranno inoltre garantire che gli utenti siano consapevoli quando interagiscono con un’intelligenza artificiale e fornire spiegazioni comprensibili sulle decisioni automatizzate. Questi obblighi non solo mirano a tutelare i consumatori, ma contribuiscono anche a rafforzare la fiducia nel settore dell’IA, promuovendo un’innovazione tecnologica etica e sostenibile.
Prossimi sviluppi
L’AI Act prevede un’implementazione graduale, con alcune norme già in vigore e altre che entreranno in applicazione nei prossimi anni. Per questo motivo, è fondamentale che le organizzazioni rimangano aggiornate sulle evoluzioni normative e adattino costantemente le proprie pratiche per garantire la conformità.
L’Unione Europea continuerà a fornire linee guida e strumenti di supporto per facilitare l’adozione delle nuove disposizioni, con l’obiettivo di bilanciare la necessità di regolamentare il settore con quella di favorire lo sviluppo di tecnologie innovative.
© Riproduzione riservata