La via europea all’Intelligenza Artificiale

La sfida sta nel riconfigurare il progresso, orientandolo verso il bene della società e delle singole persone. È l’opinione della professoressa Benedetta Giovanola, titolare del primo corso universitario europeo sull’etica della A.I. all’Università di Macerata

Intervista Benedetta Giovanola - Intelligenza Artificiale

Il nostro futuro racchiuso in due, semplici, lettere: A.I.. Il domani dell’intera umanità passa infatti da qui: da come, quanto e per quali scopi useremo l’Intelligenza Artificiale (A.I.). Quello che una volta sembrava mera fantascienza – robot, telemedicina, ma persino polizia predittiva, riconoscimenti facciali, embrioni artificiali – ora è diventato realtà: accade già oggi, tanto che la domanda non è più se l’A.I. cambierà il nostro modo di vivere, ma come lo trasformerà.

Al di là infatti di una possibile presa di coscienza delle macchine (uno scenario alla Skynet che, per quanto plausibile, non sembra imminente), il problema sta nel modo in cui l’uomo userà l’Intelligenza Artificiale. Semplificando, se ne avvarrà per il bene o per il male? Ed è proprio da questa consapevolezza che è nato nelle Marche il primo corso universitario europeo sull’etica della IA: la cattedra Jean Monnet all’università di Macerata, l’unica in tutta Europa ad essere finanziata da Bruxelles. La titolare è la professoressa Benedetta Giovanola: “L’A.I. pervade ormai tantissimi ambiti della nostra esistenza: è una risorsa che ha molte potenzialità ma anche dei limiti e dei rischi”, spiega. “Credo sia una priorità trovare un approccio etico all’Intelligenza Artificiale, soprattutto alla luce dello scenario globale: i modelli internazionali che si contendono la scena sono molto diversi tra loro, basti pensare al modus operandi americano e a quello cinese”.

Potrebbe esistere una via europea all’Intelligenza Artificiale?
Me lo auguro. L’IA Act (il regolamento che il Parlamento Europa ha redatto e che potrebbe essere approvato a fine anno, ndr) va proprio in questa direzione: tracciare una via europea all’A.I., fondata su alcuni valori come per esempio l’equità e l’autonomia. L’idea è di regolamentare lo sviluppo non per impedirlo ma per orientarlo, già a monte, verso il bene comune. Purtroppo c’è chi sottolinea l’aspetto costrittivo del testo ma, se ci pensiamo, tutte le cose fatte bene prevedono dei limiti: lo stesso stare insieme e condividere spazi comuni implica delle regole e dei divieti.

Oggi è però invalsa l’idea che l’evoluzione tecnologica non si possa fermare. È così oppure questa convinzione è parte del problema?
Purtroppo sta prendendo piede una sorta di determinismo tecnologico secondo il quale qualsiasi forma di progresso, soprattutto scientifico, si autoalimenta ed è inarrestabile. Di conseguenza ci si è convinti che se qualcosa è fattibile, allora è bene farla, come se il determinismo portasse con sé un criterio di valore. A preoccuparmi è però anche la superficialità dell’attuale dibattito: a mio avviso non si tratta di arrestare lo sviluppo o mandarlo avanti. Il punto è un altro, ossia: che tipo di evoluzione tecnologica vogliamo? La sfida sta nel riconfigurare il progresso, orientandolo verso il bene della società e delle singole persone. Anche perché, non dimentichiamoci che se pochi di noi sono dei progettatori informatici, tutti quanti siamo invece degli utilizzatori dell’A.I..

A maggio Geoffrey Hinton, meglio noto come “il padrino” dell’Intelligenza Artificiale, si è dimesso da Google per poter parlare liberamente dei rischi tecnologici. Quanto questo ci deve far preoccupare?
Dietro alle sue dimissioni non si nasconde una critica a Google: semplicemente, Hilton ha preferito non essere associato a un singolo attore privato. Se fosse infatti rimasto in Google, qualsiasi cosa avesse detto sull’Intelligenza Artificale sarebbe apparsa come una critica o un riferimento all’azienda. Quello che semmai è interessante è che, a differenza del passato, ora Hinton rinnega il determinismo tecnologico, di cui parlavamo prima, e che in passato sosteneva. A loro volta diversi colossi informatici, come Ibm e Google, stanno esprimendo il bisogno di una maggiore regolamentazione o comunque la necessità di un dialogo tra settore privato e istituzioni pubbliche. Tutto questo fino a qualche anno fa non c’era: lo scenario sta cambiando perché l’A.I. si sta evolvendo in modo molto veloce e gli stessi sviluppatori si sono resi conto che spesso i prodotti superano le aspettative.

I rischi a oggi paventati sono i più disparati: si va da un’apocalissi in stile Terminator alla perdita di migliaia di posti di lavoro. Quali sono gli scenari realmente plausibili?
È chiaro che c’è un’attenzione a quelli che potrebbero essere gli sviluppi dell’A.I.: ci si interroga se possa essere considerata responsabile, se sia dotata di una volontà e di capacità d’azione. Tuttavia gli scenari apocalittici, alla SkyNet, servono soprattutto a fare notizia. I rischi più urgenti sono altri ossia… quelli attuali.

Per esempio?
L’Intelligenza Artificiale impatta, già oggi, sul mercato del lavoro: forse sarebbe più corretto parlare di riconfigurazione dei posti di lavoro, anziché di perdita, ma il tema è comunque reale. C’è poi il problema delle disuguaglianze: l’A.I. può amplificarle se non addirittura crearne di nuove (si veda il caso dei riconoscimenti facciali che faticano a identificare i volti delle persone di colore). Bisognerebbe poi interrogarsi sulla tendenza a delegare alle macchine la comprensione del mondo, e l’analisi critica. Non ultimo, anche se non se ne parla mai molto, c’è un tema di sostenibilità ambientale: l’A.I. ha consumi energetici assai elevati.

Tra le pratiche vietate dall’IA Act figura la polizia predittiva: è fantascienza o realtà?
È un tema molto attuale. In Usa, per esempio, l’Intelligenza Artificiale è utilizzata a scopi predittivi. Ha fatto per esempio discutere il caso del software Compas: per lungo tempo è stato utilizzato per stabilire il rischio di recidive e le sue valutazioni erano tenute molto in conto dai giudici. Purtroppo si è scoperto che il software tendeva a discriminare gli afroamericani.

Molti artisti (attori, cantanti, sceneggiatori) temono di venir soppiantati dalle macchine: è un orizzonte plausibile?
Anche se quel tipo di Intelligenza Artificiale viene definita “A.I. creativa”, le macchine sono dotate di un tipo di fantasia diversa da quella umana in quanto inconsapevole. La stessa ChatGpt non ha contezza di stare scrivendo: si limita a fare associazioni tra termini ricorrenti. A mio avviso, l’A.I. impatterà invece molto sul settore medico (penso a tutta la parte della telemedicina o della robotica sociale applicata alla cura degli anziani) e sui mestieri dove il lavoro è ridotto a esecuzione.

Si è anche arrivato a parlare di embrioni artificiali e clonazione…
L’argomento è complesso perché chiama in campo anche la bioetica: qual è il discrimine tra tecnologie che consentono un pieno dispiegamento delle nostre facoltà e quelle che, invece, promuovono forme di potenziamento che alterano l’umanità, trasformandoci in titani? Ci sono degli studi in corso, molto interessanti, sull’importanza dei neuro diritti ossia sul nostro diritto a esercitare le funzioni cerebrali senza interferenze indebite. Personalmente sono un po’ critica verso queste forme di ubris, per dirla come i greci: bisogna essere consapevoli di cosa vuol dire essere umani e accettarne i limiti.


Intervista pubblicata sul numero di settembre 2023 di Voilà – Acquistalo in edicola o scarica la tua copia da App Store o Google Play

© Riproduzione riservata