L’AI deve essere responsabile o minerà i diritti umani e genererà instabilità globale. È quanto sostiene Virginia Dignum, direttrice dell’AI Policy Lab e membro dell’Organismo consultivo di alto livello sull’AI delle Nazioni Unite.
Da qui deriva l’importanza di una regolamentazione globale, dove si punti su regole del gioco in grado di garantire una produzione sostenibile, un accesso equo e il rafforzamento della coesione sociale. Una strada che, secondo lei, è stata intrapresa dall’Ue.
L’Onu sostiene una regolamentazione globale dell’AI, ma Stati Uniti e Regno Unito stanno prendendo le distanze. Una normativa globale funzionerà senza la partecipazione di entrambe le nazioni?
In effetti, la regolamentazione globale dell’AI senza la partecipazione di Stati Uniti e Regno Unito rischia di diventare frammentata e meno efficace, ma rimane comunque un passo fondamentale. La governance dell’AI è troppo importante per essere lasciata in balìa dei capricci di singoli attori, anche se potenti. La loro riluttanza può, infatti, influenzare altri a eludere l’azione collettiva, ma tale approccio comporta il rischio di alimentare una spirale competitiva caratterizzata da scorciatoie etiche e crescenti disuguaglianze. Sebbene raggiungere un consenso globale sembri difficile, è fondamentale continuare a costruire quadri multilaterali che riflettano valori sociali e umani condivisi.
Come valuta l’investimento annunciato dall’Ue di 200 miliardi di euro per promuovere un’AI regolamentata e più umana?
Trovo che sia una misura lungimirante, che si allinea strettamente alla difesa dell’innovazione responsabile e della gestione globale dell’AI. Esso costituisce un precedente su come i finanziamenti su larga scala possano promuovere non solo l’innovazione tecnologica, ma anche lo sviluppo di un’intelligenza artificiale etica, inclusiva e sostenibile dal punto di vista ambientale. Tuttavia, investire nell’AI non è sufficiente; il tutto deve essere accompagnato da una produzione sostenibile, un accesso equo e dal rafforzamento della coesione sociale. Sottolineando la rilevanza della regolamentazione come trampolino di lancio per l’innovazione piuttosto che come ostacolo, l’Ue dà il buon esempio. Sebbene altri Paesi come Canada, Giappone e Brasile abbiano strategie promettenti, pochi eguagliano l’impegno europeo per una governance integrata basata sui valori. Tuttavia, non si tratta di una competizione, né ci sarà un unico vincitore. I progressi più significativi, o meglio, gli unici progressi veramente significativi, deriveranno da sforzi globali allineati che garantiscano che i benefici dell’AI siano condivisi in modo ampio e sostenibile.
Esiste una chiara competizione internazionale per il controllo di questo mercato. Quanto la preoccupano le crescenti tensioni geopolitiche?
Molto, e profondamente. Una corsa globale per il dominio dell’AI, alimentata da ambizioni economiche o militari, e priva di garanzie etiche, rischia di accelerare le disuguaglianze e di minare le stesse fondamenta della democrazia e della coesione sociale. Il rapido e non regolamentato sviluppo dell’AI tende a concentrare il potere in un piccolo numero di nazioni o, cosa ancora più preoccupante, in società private sulle quali abbiamo un controllo limitato. Ciò emargina la maggior parte dei Paesi e colpisce in modo sproporzionato le comunità più vulnerabili, trasformando l’AI in una forza che amplia le disparità esistenti invece di colmarle.
Qual è la principale preoccupazione etica che vede?
La mia principale preoccupazione è che l’AI opaca e non responsabile eroda l’autonomia umana e che l’attenzione ai pericoli esistenziali e alla competizione geopolitica offuschi il suo potenziale positivo. Trattare l’AI solo come una minaccia può portare a decisioni dettate dalla paura e dal breve termine. È fondamentale affrontare rischi come il processo decisionale senza supervisione e il rafforzamento dei pregiudizi, ma ciò richiede qualcosa di più di semplici soluzioni tecniche: è necessario un cambiamento sistemico. Difendo il principio dell’allineamento con il Pianeta Terra, che collega l’AI alla sostenibilità, all’equità e alla fiducia sociale. Affinché questa tecnologia sia davvero al servizio dell’umanità, dobbiamo democratizzarne la governance e includere voci diverse nel suo sviluppo.
Stiamo andando verso un futuro in cui le macchine decideranno l’uso delle armi di distruzione di massa?
Quel futuro non è fantascienza, ma una possibilità reale e pericolosa che sta già avvenendo. La mia preoccupazione non è solo che le macchine prendano decisioni di vita o di morte, ma che gli esseri umani utilizzino la loro autonomia come scusa per eludere le responsabilità. L’AI deve servire alla pace, non a perpetuare o intensificare i conflitti.
Guardando al futuro, quali progressi nell’AI la entusiasmano di più?
Il suo più grande potenziale risiede nel darci gli strumenti per affrontare sfide globali come il cambiamento climatico, la salute e l’equità, ma questo potenziale potrà essere realizzato solo se questa sarà sviluppata in modo etico e responsabile. Un’intelligenza artificiale allineata agli obiettivi sociali e ambientali può essere un catalizzatore per la giustizia e la sostenibilità. Il futuro dell’intelligenza artificiale non deve concentrarsi solo su macchine più intelligenti, ma sul suo uso come strumento per il bene comune. L’AI responsabile è l’unica opzione praticabile, poiché l’AI irresponsabile mina i diritti umani, la fiducia sociale e l’innovazione, oltre ad accelerare l’instabilità globale.
Questa intervista è tratta dallo speciale AI – Quanto costa, quanto conviene di Business People di maggio 2025, scarica il numero o abbonati qui