L’intelligenza artificiale? Sarà di tutti

Dalle grandi aziende alle pmi passando per i cittadini. Secondo Michela Milano, docente dell’università di Bologna e tra i massimi esperti in materia, l’AI porterà vantaggi diffusi, purché sia regolamentata e controllata

L’intelligenza artificiale? Sarà di tutti. Intervista a Michela MilanoMichela Milano dirige il Centro Interdipartimentale Alma Mater Research Institute for Human-Centered AI

Michela Milano ha iniziato a occuparsi di intelligenza artificiale durante la tesi di laurea, ben prima che il tema diventasse “di moda”. È stata vicepresidente dell’European Association of Artificial Intelligence ed Executive Councilor della American Association of Artificial Intelligence, e fa parte del gruppo di esperti di intelligenza artificiale nominati dal Ministero per lo Sviluppo economico per la definizione di una strategia nazionale oltre che del gruppo di lavoro per la definizione del PNR 2021-2027.
Professoressa ordinaria all’università di Bologna, ne dirige il Centro interdipartimentale Alma Mater Research Institute for Human-Centered Artificial Intelligence, un centro interdisciplinare che mira ad aggregare e potenziare le attività di ricerca basate sull’intelligenza artificiale presenti in molti dipartimenti dell’ateneo. Nato a inizio 2020, questo centro non coinvolge, quindi, solo profili Stem, ma mira ad affrontare il tema in modo olistico, sviluppando sistemi che al necessario background tecnologico e scientifico uniscano anche studi sulle loro ricadute sociali, economiche e giuridiche.

Professoressa, nell’ultimo anno è letteralmente esplosa l’AI. Come giudica il livello del dibattito in atto?
Sicuramente la maggioranza delle persone ha scoperto l’AI con il debutto di ChatGPT, ma il mondo industriale ha iniziato a mostrare interesse già da qualche anno, con l’avvento del deep learning, e l’AI è nata in tempi ben più remoti, nel 1956. Ora sia le imprese sia il grande pubblico vogliono comprenderne opportunità e rischi, perciò il dibattito è molto intenso. Il problema è che molti “saltano a bordo” senza avere il background appropriato. Per avere informazioni corrette consiglio di affidarsi a esperti che lavoravano in questo campo già da prima dell’hype che si sta registrando negli ultimi tempi.

Pensa che PA e imprese siano consapevoli delle potenzialità di impiego dell’AI nei loro processi?
C’è un po’ di confusione, anche perché la questione è complessa. Molte aziende vogliono utilizzare l’AI senza aver però raccolto i dati nel modo corretto. Per fare un esempio, non molto tempo fa come università di Bologna abbiamo lavorato con delle imprese che volevano sfruttare la cosiddetta predictive mainteinance, un’applicazione ormai abbastanza diffusa dell’AI che sfrutta i dati rilevati da appositi sensori applicati sui macchinari per elaborare modelli in grado di prevedere con un buon grado di accuratezza quando si verificheranno guasti o rallentamenti. Il problema è che dai dati di partenza mancavano proprio quelli relativi ai guasti. Questo per dire che la curiosità c’è, molti ne vedono le potenzialità, ma siamo ancora all’inizio. Il processo di adozione di queste nuove tecnologie è appena iniziato e se molte grandi imprese hanno la possibilità di dedicarvi i settori di R&S o assumere esperti, le pmi hanno bisogno di un aiuto esterno. La transizione avrà, quindi, inevitabilmente, velocità diverse. Anche la PA è molto indietro, nonostante in questo settore il potenziale sia davvero enorme. Del resto nel campo dei servizi pubblici, sanità in primis, vanno risolte anche questioni rilevanti sull’utilizzo di dati sensibili e di proprietà dei cittadini. Si stanno facendo dei passi avanti e spero che si trovi una soluzione ottimale, perché saremo proprio noi cittadini a trarne giovamento.

Mancanza di chiarezza a parte, mi sembra però di capire che lei rilevi più fiducia che paura nei confronti di questa nuova tecnologia….
Per determinate applicazioni c’è sicuramente più fiducia. Per esempio, a livello aziendale gli imprenditori hanno abbastanza chiaro il fatto che l’uso dell’AI possa portare dei vantaggi, anche se il ritorno sull’investimento non è immediato. In altri settori si presentano maggiori problematiche. Proprio in questo periodo nell’ambito del progetto Fair, finanziato dal Pnrr, stiamo conducendo uno studio sull’accettazione dei sistemi di AI da parte del personale medico. In questo campo emergono due questioni. La prima è proprio quella della fiducia. Una soluzione, in questo senso, è co-progettare le applicazioni dell’intelligenza artificiale con gli esperti del settore. Dall’altra parte c’è anche un problema legato alla declinazione di responsabilità degli esperti di dominio. Ossia, il sistema deve offrire un supporto alle decisioni, ma è fondamentale che queste rimangano in capo all’essere umano.

Michela Milano durante il suo intervento all’AI Forum, tenutosi a Milano nell’aprile scorso

Di fatto, l’Italia è da sempre un Paese di pmi. In che misura e in che termini l’AI è alla loro portata?
Sono convinta che le piccole medie imprese vadano aiutate. Al momento pressoché tutte le piattaforme di AI sono utilizzabili solo da persone che abbiano un background in informatica e, più nello specifico, in AI ed è impensabile che aziende molto piccole assumano personale specializzato. D’altra parte, un aiuto può arrivare dalla stessa AI. Per esempio, ho da poco partecipato al progetto StairwAI, finanziato dall’Ue proprio per avvicinare all’AI le pmi. E lo fa innanzitutto permettendo loro di interfacciarsi con il sistema utilizzando il proprio linguaggio naturale per presentare il proprio settore e il problema che si vorrebbe risolvere. Dopodiché il sistema fornisce un servizio di matchmaking, ossia mette in contatto l’impresa con chi è in grado di sviluppare la soluzione di cui ha bisogno.

La carenza di competenze informatiche e digitali è endemica nel nostro Paese: potrebbe rallentare l’adozione dell’IA nei processi economici e produttivi?
Al di là della preoccupazione diffusa per la perdita di posti di lavoro, io credo che l’AI creerà invece molte opportunità. Certo è che gli attuali occupati necessiteranno di un percorso di formazione per poter utilizzare questi strumenti in modo consapevole. Bisognerebbe poi lavorare in modo importante a livello universitario e scolastico, perché l’insegnamento dell’AI, ora riservato ai percorsi Stem, anche se con diversi livelli di approfondimento, dovrebbe essere esteso a tutti, affinché ne comprendano le opportunità e i rischi di applicazione nel proprio campo d’interesse. È con quest’ottica che nel Centro Interdipartimentale Alma Mater Research Institute for Human-Centered Artificial Intelligence, a Bologna abbiamo realizzato delle “pillole” informative sull’AI da erogare ai docenti Unibo con un background non tecnologico.

Cosa le imprese devono e possono temere dall’adozione dei sistemi di AI?
Credo che il livello di attenzione debba essere molto alto quando i sistemi di AI vengono chiamati a suggerire decisioni che coinvolgano esseri umani. Penso, per esempio, alle selezioni per i trial clinici, all’assegnazione o meno di borse di studio, sussidi o mutui. Questo perché le discriminazioni già presenti nella nostra società non solo vengono generalmente riproposte dai modelli di intelligenza artificiale, ma addirittura amplificate. Quindi, se un’azienda vuole utilizzare questi sistemi deve fare molta attenzione ai bias di genere, sull’età o sulla razza. E non è affatto semplice, partendo da dati polarizzati, costruire modelli che non lo siano. Un caso concreto è il sistema Compas utilizzato in alcuni Stati Usa per valutare le probabilità di recidiva di un detenuto. Si tratta di un software molto accurato che, però, quando sbaglia lo fa in modo fortemente polarizzato, sopravvalutando le probabilità per i neri e sottovalutandole per i bianchi. È una questione molto importante, che interseca anche aspetti giuridici fondamentali. Citerei poi anche la problematica dell’uso di certi strumenti per la creazione di voci, fotografie e video contraffatti, che è ora finalmente regolamentata nell’AI Act.

Come giudica questa prima normativa sull’AI?
Benché perfettibile, ritengo che rappresenti un passo importante e necessario. E, come è già successo con il Gdpr sulla privacy, sono convinta che sia destinato, in questa o in una sua versione futura migliorata, a divenire uno standard adottato in tutto il mondo. Solo a fronte di una regolamentazione certa è possibile perseguire chi utilizza in modo malevolo l’AI. Ovviamente la regolamentazione comporta un costo, che è quello della validazione della compliance, che può rappresentare una barriera per le imprese. Però è anche vero che buona parte dei settori e delle applicazioni, quelli ritenuti a basso rischio, non verranno in nessun modo influenzati negativamente dall’AI Act.

Una delle applicazioni più diffuse dell’AI è nell’elaborazione di modelli predittivi, ma come istruire questi sistemi affinché riescano a tenere conto dei comportamenti irrazionali tipici dell’essere umano?
È molto difficile, ma non impossibile. Intanto il procedimento può essere interattivo, nel senso che si può studiare se il modello sia effettivamente realistico e poi adeguarlo di conseguenza. Inoltre, si possono costruire modelli che tengano conto di studi sociologici approfonditi già condotti su determinati comportamenti, dai movimenti delle folle in stato di panico alle ricerche di behavioural economics. E qui torniamo alla necessaria interdisciplinarietà di cui parlavo prima.


Questa intervista è parte de L’AI fa già impresa, inserto di Business People di giugno 2024. Scarica il numero o abbonati qui

© Riproduzione riservata