AI Act: la fuga in avanti dell’Europa

L’UE è stata pioniera sul fronte della regolamentazione dell’intelligenza artificiale. Un passo importante, ma inevitabilmente imperfetto, che avrà ricadute altrettanto rilevanti sulle imprese

AI Act: la fuga in avanti dell’Europa© iStockPhoto

Approvato dal Governo Europeo il 13 marzo 2024, l’AI Act è il primo regolamento normativo e giuridico, a livello mondiale, sull’intelligenza artificiale. La nuova legge dell’Unione Europea classifica e regolamenta le varie applicazioni dell’intelligenza artificiale in base al loro potenziale rischio di causare danni al cittadino. Distingue, quindi, fra applicazioni con rischi inaccettabili, applicazioni ad alto rischio, a rischio limitato e a rischio minimo. Quelle che comportano rischi inaccettabili sono espressamente vietate. Parliamo di sistemi che potrebbero mettere a rischio la sussistenza, i diritti o la sicurezza degli esseri umani, come lo scoring sociale di affidabilità dei cittadini, i sistemi di identificazione biometrica o di sorveglianza diffusa con riconoscimento facciale.

AI Act e potenziali di rischio dell’intelligenza artificiale

Le applicazioni che comportano invece un rischio elevato sono consentite, ma sono soggette a obblighi rigorosi prima di poter essere immesse sul mercato. Perché queste tecnologie possano effettivamente entrare a far parte delle nostre vite sarà necessario sottoporle a sistemi di valutazione e mitigazione dei rischi, dovranno essere alimentate da una serie di dati di alta qualità, dovrà essere garantita la tracciabilità dei risultati, ne sarà valutata la conformità da parte delle autorità, dovranno essere istituite adeguate misure di sorveglianza umana, garantendo un elevato livello di sicurezza. Parliamo, per esempio, dell’utilizzo dell’intelligenza artificiale nel settore dei trasporti, nella formazione scolastica o professionale, nella sicurezza dei prodotti (pensiamo all’utilizzo dei robot in chirurgia), nella valutazione dell’affidabilità delle prove nei processi, nella gestione delle frontiere, nei servizi essenziali.

Le applicazioni a rischio limitato sono, invece, quelle legate alla mancanza di trasparenza nell’uso dell’intelligenza artificiale. La legge europea introduce, infatti, obblighi di trasparenza per garantire che i cittadini siano informati, ad esempio, quando si utilizzano sistemi di intelligenza artificiale come i chatbot. I testi generati dall’intelligenza artificiale, pubblicati allo scopo di informare il pubblico su questioni di interesse pubblico, devono inoltre essere etichettati come “generati artificialmente”. Ci sono, infine, applicazioni a rischio minimo, pienamente consentite. Parliamo per esempio dei videogiochi o dei filtri antispam.

Detto che per un’azienda fornitrice di un sistema di intelligenza artificiale, nei casi di rischio minimo e limitato, gli obblighi sono pochi e facilmente gestibili, cosa dovrebbe fare, invece, per un sistema che rientra nelle applicazioni ad alto rischio?

Completato lo sviluppo del sistema, l’azienda fornitrice dovrà prima sottoporlo a una valutazione di conformità che soddisfi i requisiti richiesti. Per alcuni sistemi potrebbe anche essere necessaria una procedura di notifiche. Poi dovrà registrare il proprio sistema stand-alone in un apposito database Ue e ottenere una dichiarazione di conformità firmata, insieme al marchio CE. Solo dopo sarà possibile immettere il sistema sul mercato, con l’obbligo, in caso di cambiamenti sostanziali nel sistema, durante il suo ciclo di vita, di ricominciare da zero con la valutazione di conformità. Mentre a dover vigilare sul mercato saranno le singole autorità, diventerà obbligo dell’operatore che usa il sistema garantirne la sorveglianza e il monitoraggio umano, mentre il fornitore disporrà di un suo sistema di monitoraggio post-commercializzazione. Fornitore e operatore insieme dovranno poi segnalare eventuali incidenti e malfunzionamenti. La legge sull’AI si applica anche alle aziende extra Ue che forniscano beni o servizi a residenti europei o che comunque trattino i loro dati.

Chiara Ghidini

PRO & CONTRO – Il punto di vista di Chiara Ghidini, vicepresidente dell’Aixia, associazione italiana per l’intelligenza artificiale (foto © Unibzl/Alexander Erlacher)

Secondo il Politecnico di Milano, il 61% delle grandi aziende italiane ha già avviato progetti di intelligenza artificiale. Anche se l’AI Act troverà piena applicazione solo due anni dopo la sua approvazione, queste imprese dovranno da subito adeguarsi alla normativa, in modo da arrivare puntuali all’appuntamento con l’applicazione ed evitare le pesanti sanzioni previste per chi non è AI Act Compliant: fino a 30 milioni di euro o al 6% del fatturato annuo.

Ovviamente il regolamento vale anche per le pmi. Pur senza avere gli stessi strumenti delle grandi aziende, le piccole e medie imprese dovranno adeguarsi. Necessario in questo senso un percorso di alfabetizzazione verso l’AI, così come auspicabili sarebbero degli investimenti nazionali su infrastrutture pubbliche o semipubbliche al servizio delle pmi. Interventi che per il momento il disegno di legge italiano sull’intelligenza artificiale, approvato ad aprile dal Consiglio dei Ministri, non prevede, rimandando simili interventi a future decisioni del Governo.


Questo articolo è parte de L’AI fa già impresa, inserto di Business People di giugno 2024. Scarica il numero o abbonati qui

© Riproduzione riservata