Sas, così l’AI sta cambiando le aziende

Da Intesa Sanpaolo ad Alfasigma, fino al Comune di Pisa: a “Executive Perspectives” le esperienze che mostrano l’uso reale dell’intelligenza artificiale

Sas, così l’AI sta cambiando le aziendeUn momento della serata Executive Perspectives: from AI adoption to AI value, tenutasi il 19 marzo a Palazzo Turati di Milano

L’intelligenza artificiale è entrata in una fase decisiva: l’adozione accelera, ma la vera sfida è trasformarla in valore concreto, sostenibile e misurabile. È da qui che è partita la serata Executive Perspectives: from AI adoption to AI value organizzata da Sas a Palazzo Turati il 19 marzo. A guidare il confronto è stato il giornalista Alessio Jacona, che ha inquadrato l’AI come una rivoluzione tecnologica difficile da governare, soprattutto nel passaggio più recente verso modelli sempre più autonomi. Un’evoluzione che impone alle organizzazioni di trovare un equilibrio tra innovazione e controllo, evitando che l’adozione sia guidata più dall’hype che dal valore reale.

In questo contesto, l’obiettivo dichiarato da Mirella Cerutti, Regional Vice President di Sas, è portare concretezza. L’AI, ha osservato, è ancora molto in laboratorio, ma sta iniziando a entrare in produzione nelle aziende, ed è proprio questo il passaggio cruciale. Da qui la scelta di affiancare alla riflessione strategica le testimonianze di chi sta già usando queste tecnologie per migliorare, efficientare o cambiare processi e modelli operativi.

Così la tecnologia Sas entra nei processi di Intesa Sanpaolo

Il primo tassello del confronto è arrivato da Andrea Cosentini, Head of Data Science & Responsible AI di Intesa Sanpaolo, che ha descritto un impiego dell’intelligenza artificiale ormai trasversale all’intera organizzazione. Il punto, ha spiegato, è ridisegnare i processi aziendali per renderli più efficaci ed efficienti, in un contesto che va dalla relazione commerciale con il cliente fino alla difesa dal crimine finanziario.

Nel caso della banca, l’AI viene applicata a realtà molto diverse tra loro. Da un lato c’è la dimensione del business, con il rapporto con la clientela e con la possibilità di costruire offerte più puntuali rispetto al passato. Dove prima le campagne commerciali erano rivolte in modo ampio e indistinto, oggi è possibile indirizzare i prodotti verso clienti ritenuti più adatti a quel servizio o a quella proposta finanziaria specifica. Dall’altro lato c’è il fronte della sicurezza, dove i sistemi di machine learning permettono di monitorare fenomeni complessi e rafforzare le difese contro frodi e riciclaggio.

Cosentini ha citato, tra gli esempi, il cosiddetto Velocity, un meccanismo di riciclaggio in cui il denaro viene suddiviso in moltissime parti in tempi rapidissimi per poi ricomporsi altrove. In scenari come questi, l’automazione consente di riconoscere pattern difficili da intercettare manualmente. Ha ricordato inoltre la nascita, nel 2022, dell’Anti Financial Crime Digital Hub di Torino, creato dalla banca proprio per utilizzare gli algoritmi di intelligenza artificiale nella difesa del sistema finanziario.

Ma l’aspetto decisivo, nel suo intervento, è stato il richiamo alla governance. In un settore iper-regolamentato come quello bancario, ha spiegato, non ha senso moltiplicare i casi d’uso se manca una piattaforma centrale capace di controllare i modelli, verificarne le performance, misurarne il rischio e monitorarne trasparenza e spiegabilità. Al 31 dicembre, ha ricordato, erano 237 i sistemi inseriti nel registro centrale. Il senso del messaggio è chiaro: l’adozione dell’AI non è soltanto una questione tecnologica, ma anche di supervisione, responsabilità e change management.

AI agent, cinque regole per non sbagliare

Da Alfasigma al Comune di Pisa: gli altri casi concreti

Dal settore bancario il confronto si è spostato nel life science con l’intervento di Mara Magni, IT and R&D Director di Alfasigma. Il suo contributo ha riportato il dibattito su un terreno molto concreto, mettendo in fila opportunità e limiti dell’intelligenza artificiale in un comparto in cui ogni innovazione deve fare i conti con la tutela della salute dei pazienti.

Magni ha ricordato che, quando si parla di AI in ambito farmaceutico, il primo use case evocato è spesso quello della scoperta di nuovi farmaci. Ma la realtà, ha sottolineato, è più complessa della narrazione diffusa. Esistono modelli molto avanzati, come AlphaFold, in grado di aiutare nella modellizzazione delle proteine e di accelerare in modo impressionante alcune fasi della ricerca: oltre 200 milioni di proteine previste in due anni, contro le circa 500.000 individuate in 50-60 anni di ricerca. Eppure tra la struttura di una proteina e un farmaco che arriva sul mercato resta una distanza enorme.

Il punto, ha spiegato, è che i processi devono essere validati in laboratorio e nella vita reale. Per questo, almeno oggi, l’AI non può sostituire passaggi essenziali della sperimentazione. Dove invece il suo impatto appare già molto più tangibile è nella farmacovigilanza, cioè nel monitoraggio continuo della sicurezza dei farmaci anche dopo la loro commercializzazione. Qui le aziende devono gestire segnalazioni che arrivano da medici, pazienti, trial clinici e altre fonti, in formati molto diversi tra loro e con tempi di risposta estremamente rapidi.

In questo scenario, l’AI può leggere informazioni destrutturate, predisporle in un database centralizzato e ridurre in modo significativo i tempi di processazione. Il beneficio, ha spiegato Magni, è doppio: da una parte si accelera il trattamento dei dati, dall’altra si liberano risorse per attività più critiche, come l’informazione al paziente o la ricerca di nuove indicazioni per farmaci già esistenti. Anche qui, però, il nodo resta la governance. In un’industria regolamentata non è possibile immaginare uno human out of the loop: il controllo umano deve restare, perché serve accountability su come il dato di salute viene processato e su come si arriva a un determinato output.

La terza case history ha portato il dibattito nella pubblica amministrazione, con Marco Redini, direttore della Direzione Ambiente del Comune di Pisa. Il suo intervento ha mostrato come l’intelligenza artificiale e l’analisi dei dati possano incidere in modo diretto sulla gestione del territorio, sull’efficacia delle decisioni e sulla trasparenza amministrativa. Pisa, ha ricordato, è una realtà complessa: a fronte di circa 90 mila residenti, ogni giorno è frequentata da 150-160 mila persone, con una pressione notevole su infrastrutture, ambiente e servizi.

Il Comune utilizza dati ambientali, monitoraggi e modelli per affrontare in modo nuovo questioni come rumore, qualità dell’aria, deflussi, impatti urbani e valutazioni ambientali strategiche. Redini ha citato il caso delle rotte aeree e del rumore prodotto dai decolli: l’analisi massiva dei dati e le simulazioni hanno permesso di verificare gli effetti di nuove traiettorie e di correggere rapidamente criticità che, nel giro di pochi giorni, avrebbero potuto produrre centinaia di esposti da parte dei cittadini. L’aspetto centrale, però, non è solo la capacità di reagire, ma il fatto di poter documentare in modo corretto le scelte compiute.

Questo consente all’amministrazione di motivare un parere, difenderlo anche in sede giudiziaria e valutare gli effetti delle decisioni nel tempo. Per Redini il dato non è un patrimonio da custodire in un silo, ma uno strumento da diffondere. Più le informazioni vengono condivise, più l’ufficio acquista forza dentro l’amministrazione e più diventa possibile contrastare pressioni esterne attraverso la concretezza dei fatti. Anche per questo, ha spiegato, l’idea è costruire un modello replicabile, che possa essere adattato anche da altri Comuni.

Tre sfide per le aziende

A tirare le fila del discorso è stato Angelo Tenconi, Senior Director Customer Advisory di Sas, che ha riportato l’attenzione sulla traiettoria dell’innovazione. L’AI, ha osservato, non nasce oggi: machine learning, forecasting e ottimizzazione fanno parte da tempo del patrimonio tecnologico delle organizzazioni. La vera novità, però, è la crescita della AI generativa, capace non solo di produrre uno score o una previsione, ma di generare testi, immagini e altri contenuti, entrando nei processi di business con modalità completamente nuove.

Il passaggio successivo è quello della agentic AI, cioè di agenti che svolgono step in autonomia, interagendo sia con modelli tradizionali sia con i grandi modelli linguistici. È un’evoluzione che apre possibilità molto interessanti, ma che porta con sé complessità oggettive. Tenconi ha indicato tre nodi principali: l’infrastruttura, da ottimizzare anche per evitare esplosioni di costo; le competenze, che dovranno evolvere per sfruttare davvero questi strumenti; e soprattutto la governance, cioè la capacità di sapere quanti modelli sono in uso, se sono aggiornati, se producono risultati ancora validi e come controllarne il ciclo di vita.

È proprio qui, ha concluso, che Sas vuole posizionarsi: non come semplice fornitore di tecnologia, ma come partner capace di calare l’innovazione in use case reali, già preimpostati e adattabili ai diversi settori. Dall’ambito bancario al life science, fino al public sector, l’obiettivo è accompagnare le organizzazioni lungo un percorso che non si fermi al proof of concept, ma arrivi a una messa a terra concreta. Perché la partita, oggi, non è più adottare l’intelligenza artificiale, ma farla funzionare davvero.

Resta sempre aggiornato con il nuovo canale Whatsapp di Business People
© Riproduzione riservata