Anche la Commissione Europea punta sull’Intelligenza artificiale generativa. Il sistema si chiama GPT@EC, ed è stato pensato per facilitare la redazione di testi, il riassunto di documenti e lo sviluppo di software.
GPT@EC utilizza quattro modelli di AI: GPT-4-Turbo e GPT4 di Open AI, Llama 3.1 8B di Meta, Nous Hermes 2 Mixtral di Nous Research. Nessuno di questi appartiene a società europee, ma la Commissione Europea non esclude che in futuro il suo sistema di AI potrà essere esteso anche ad altri modelli. Si tratta di un progetto pilota che sul modello di ChatGPT funziona inserendo un’istruzione in una chatbox, per consentire all’Intelligenza artificiale di generare testo, immagini o video richiesti. Prima del lancio, il Joint Research Centre, unità scientifica della Commissione, ne aveva sviluppato e testato il programma.
Lo sviluppo di un sistema dedicato per la Commissione Europea si inserisce all’interno della strategia di implementazione d’uso dell’Intelligenza artificiale, adottata dalla Commissione esattamente un anno fa, che definisce le linee guida per lo sviluppo di una IA legale, sicura e affidabile.
Il “manuale di istruzioni”, come riportato dalla rivista Wired, spiega che l’utente può accedere al sistema dall’area riservata di una delle piattaforme della Commissione, quindi i contenuti non saranno chiaramente condivisibili all’esterno. La schermata iniziale offre la possibilità di scegliere alcuni dei servizi disponibili agli addetti ai lavori: eBriefing per generare brevi documenti di testo, eMinutes per la trascrizione degli appunti durante le riunioni, eReply-complaint, per analizzare e predisporre una risposta in caso di violazione di una legge comunitaria. Altre funzioni riguardano invece la possibilità di inviare mail o condurre indagini economiche.
Lo sviluppo dell’Intelligenza Artificiale e la regolamentazione europea
La Commissione Europea ha cominciato a confrontarsi con il tema dell’Intelligenza Artificiale sin dal 2021, quando ha proposto un regolamento per promuoverne lo sviluppo e la diffusione in modo responsabile. Tale documento, approvato dal Parlamento Europeo e dal Consiglio nel dicembre 2023, è entrato in vigore il primo agosto 2024, introducendo un quadro normativo di riferimento comune a tutti i paesi Ue.
I rischi dell’AI nell’approccio europeo
Il regolamento distingue i sistemi di Intelligenza Artificiale in base al rischio: quelli a rischio minimo, come i filtri spam e i videogiochi, non sono soggetti ad alcun obbligo, ma le imprese possono comunque adottare volontariamente codici di condotta a riguardo; quelli a rischio specifico per la trasparenza, come i chatbot, sono tenuti a informare gli utenti che stanno interagendo con una macchina, e i contenuti generati dall’AI devono essere indicati come tali. Infine, quelli a rischio alto, come i software medici e i sistemi utilizzati per la selezione e l’assunzione del personale, devono rispettare i parametri più rigorosi, comprese le misure di attuazione dei rischi, mentre quelli a rischio definito inaccettabile sono vietati perché considerati una minaccia per i diritti fondamentali delle persone.
Un Codice di buone pratiche
Parallelamente all’adozione di un proprio sistema di AI generativa, la Commissione Europea ha anche avviato una consultazione su un codice di buone pratiche per i fornitori di modelli di Intelligenza Artificiale, che riguarderà le questioni legate alla trasparenza e al diritto d’autore. Imprese, rappresentati della società civile ed esperti sono stati invitati a presentare opinioni e conclusioni, che saranno tenute in considerazione nel progetto del Codice, le cui disposizioni dovrebbero essere approntate entro il prossimo mese di aprile.
Lo scopo è quello di assicurare un quadro normativo solido nel quale interfacciarsi con questa nuova realtà, al fine di impiegarla al meglio nel rispetto dei diritti e dei valori fondamentali, a beneficio dei servizi quali la sanità, i trasporti, l’energia.
[foto di One Artist / Shutterstock.com]
TUTTE LE ULTIME NOTIZIE SU SPAZIO50.ORG
© Riproduzione riservata