Quando Reggie Townsend ha cominciato a interessarsi di intelligenza artificiale, non immaginava che un giorno sarebbe diventato una delle voci più ascoltate nel dibattito sull’etica dell’AI a livello globale.
Tutto è iniziato quasi per caso, con un interesse personale per il funzionamento del cervello umano e, in parallelo, per le potenzialità del machine learning. «Leggevo articoli, mi documentavo per conto mio. Mi interessava capire come funzioniamo noi, e mi colpiva che l’AI cercasse proprio di replicare il nostro cervello. Era un’intersezione curiosa tra tecnologia e neuroscienze».
Oggi Townsend è vicepresidente della Data Ethics Practice di SAS, uno dei principali attori globali nell’ambito dell’analisi dei dati. Tra il 2022 e l’inizio del 2025, è stato membro del National Artificial Intelligence Advisory Committee del dipartimento del Commercio Usa e ha fornito consulenza al presidente degli Stati Uniti e all’Ufficio per l’Iniziativa nazionale sull’intelligenza artificiale su una vasta gamma di temi legati all’AI. Oggi fa parte anche parte del board di EqualAI, organizzazione non profit che si occupa di contrastare i bias nei sistemi di intelligenza artificiale.
In questi anni ha visto l’AI rivoluzionare processi e settori, ma ciò che lo ha colpito di più è stata una trasformazione molto personale: «Non ho alcuna dote artistica, ma grazie all’AI posso oggi creare immagini che prima riuscivo solo a visualizzare nella mia mente. Mi basta descriverle, e diventano realtà. Questo, per me, è stato un vero ‘effetto wow’». Lo abbiamo intervistato per capire come si costruisce un’AI etica, affidabile e centrata sull’essere umano.
Negli ultimi anni si parla molto di AI etica e centrata sull’uomo. Ma cosa significa concretamente?
Per rispondere, è fondamentale riconoscere una verità: gli esseri umani costruiscono i sistemi. E quindi la responsabilità è nostra. Vale per l’AI come per gli aerei o le auto: tutto dipende dall’uso che ne facciamo: possiamo usare un drone per esplorare paesaggi o per scopi militari. Il punto non è il sistema, ma chi lo utilizza. Dobbiamo evitare di antropomorfizzare l’AI: non è un’entità autonoma, ma una nostra creazione, e come tale dobbiamo garantirne l’allineamento con i nostri valori. È una questione di responsabilità e di coerenza: le tecnologie devono produrre risultati in linea con ciò che riteniamo giusto e utile.
Quali sono i principi fondamentali per costruire un’AI affidabile e trasparente all’interno di un’azienda?
In SAS diciamo sempre che l’affidabilità di un sistema di intelligenza artificiale nasce prima della prima riga di codice. Significa partire da una visione umana e valoriale. Il nostro modello si basa su quattro pilastri: supervisione umana, rispetto delle normative, requisiti operativi e cultura aziendale. Poi viene la tecnologia, che ruota attorno a sei elementi: dati, spiegabilità, bias e mitigazione, operations, privacy e sicurezza. La nostra piattaforma SAS è costruita su questi elementi, ma ogni organizzazione è diversa: ciò che conta è adattare questi principi al proprio contesto. Ad esempio, utilizziamo dati sintetici per proteggere la privacy nei settori sensibili. Ma ciò che vale per la sanità non vale necessariamente per il retail. Il punto è capire come applicare questi valori nel proprio ambiente.
Ci sono aziende che adottano approcci molto diversi dal vostro?
Sì, e non necessariamente sono approcci sbagliati. Spesso riflettono diversi livelli di tolleranza al rischio o diversi incentivi di business. Finché le intenzioni sono positive, va bene. Ma se qualcuno agisce sapendo di fare del male, allora è lì che dovrebbero intervenire le leggi e i regolatori. Non parlo solo da dirigente d’azienda, ma da essere umano: dobbiamo introdurre nel mondo tecnologie che abbiano un impatto positivo sulle persone.
Quanto sono diffusi i bias nei sistemi di intelligenza artificiale?
I bias esistono perché noi esseri umani siamo portatori di bias. Quello che ci preoccupa sono i bias dannosi, quelli che creano disuguaglianze. Alcuni sono giustificati: ad esempio, è normale che un farmaco sia diverso per uomini e donne. Ma non è accettabile che ci siano differenze di accesso al credito in base al genere o all’etnia. Il problema è culturale, ma la buona notizia è che la tecnologia per identificare e correggere questi bias esiste già. Serve però la volontà di agire: la tecnologia da sola non basta.
Quindi i modelli di AI riflettono i pregiudizi presenti nella nostra società?
Esattamente. Se esistono bias di genere nella cultura, questi si riflettono anche nei dati e quindi nei modelli. Abbiamo visto casi concreti, ad esempio nel settore bancario, dove i modelli discriminavano certi gruppi. Ma una volta che lo si scopre, tocca all’azienda intervenire. Ed è proprio quello che facciamo con le nostre soluzioni: aiutare le organizzazioni a capire e correggere.
Molti trovano l’AI ancora troppo complessa. Più trasparenza aiuterebbe ad aumentare l’adozione?
Sì, semplificare aiuta sempre. Ma voglio essere chiaro: non credo che il nostro obiettivo debba essere un’adozione diffusa dell’AI a tutti i costi. Ha senso adottare un’AI se questa porta benefici concreti. Mia zia, per esempio, non ha alcun interesse nell’AI, e va bene così. In altri casi, invece, l’utilizzo può cambiare radicalmente il modo di lavorare. Pensiamo allo sviluppo software: oggi l’AI può generare codice e accelerare i processi, riducendo tempi e costi. In quei contesti, ha senso adottarla.
A che età bisognerebbe iniziare a parlare di AI a scuola?
È una questione delicata. Con i social media abbiamo imparato lezioni dure: impatti negativi sulla salute mentale, in particolare tra le ragazze. Non vogliamo ripetere quegli errori. Ma è importante educare bambini e bambine ai concetti base dei dati, spiegare cosa sono gli algoritmi e i modelli. Come per l’aritmetica: prima impari a sommare, poi usi la calcolatrice. Esistono già strumenti come Khanmigo, che personalizzano l’apprendimento grazie all’AI. Questo cambia radicalmente il ruolo dell’insegnante e il modo stesso di fare scuola. È una trasformazione profonda che può avere effetti a catena sulla società.
Dalla sua esperienza nel National AI Advisory Committee, come giudica l’approccio europeo rispetto a quello statunitense?
L’Europa è più avanzata dal punto di vista normativo: ha costruito una cornice legale solida con strumenti come l’AI Act e il Gdpr. Gli Stati Uniti hanno un approccio diverso: ritengono che le leggi già esistano e che si debba semplicemente applicarle anche all’AI. In pratica, stanno cercando di costruire precedenti giuridici su temi nuovi, come la proprietà intellettuale. Nonostante le differenze, la cooperazione tra Usa e Ue esiste, ed è più concreta di quanto la retorica pubblica possa far credere.
Alcuni imprenditori sostengono che l’AI Act possa frenare l’innovazione in Europa. È un rischio reale?
La mia esperienza dice il contrario. Le richieste dell’AI Act sono ragionevoli, soprattutto per chi sviluppa sistemi ad alto rischio. Non ho visto nulla che impedisca a una piccola impresa di innovare. Certo, se lavori su tecnologie critiche, servono garanzie. Ma la maggior parte delle aziende è “utilizzatrice” di AI, non sviluppatrice. E le responsabilità più grandi ricadono su chi crea i modelli fondamentali. Quando un’azienda diventa influente, è giusto che crescano anche le sue responsabilità. Come diceva Spiderman: “da grandi poteri derivano grandi responsabilità”.