Come si costruisce un AI agent di cui fidarsi davvero? È questa la domanda che Véronique Van Vlasselaer, AI & Data Science Manager Emea di Sas, ha portato sul palco dell’evento Executive Perspectives: from AI adoption to AI value, tenutosi lo scorso 19 marzo a Palazzo Turati di Milano, spostando subito il discorso dal piano teorico a quello operativo. Perché mentre il mercato continua a rincorrere nuove etichette, nelle aziende il tema è già concreto: gli agenti AI stanno entrando nei processi decisionali. E il punto non è più capire cosa sono, ma come governarli.
“Benvenuti nel grande circo dell’intelligenza artificiale”, ha esordito Van Vlasselaer. Negli ultimi anni, ha aggiunto, siamo stati sommersi da definizioni e promesse che rendono difficile distinguere ciò che è rilevante da ciò che è solo rumore. Eppure, al di là dell’hype, qualcosa è cambiato davvero. “Gli AI agent non sono solo una moda, stanno accadendo ora”. Non più semplici assistenti, ma sistemi capaci di connettersi ai dati aziendali, attivare modelli, generare insight e supportare – o automatizzare – decisioni sempre più complesse.
Gli esempi portati sul palco hanno chiarito il salto. Dalla prevenzione delle frodi, dove un agente può analizzare trend e proporre nuove regole, ai processi di sanction screening che richiedono l’integrazione di fonti diverse, fino al monitoraggio delle transazioni sospette, dove l’AI non solo segnala anomalie ma costruisce anche la narrativa per gli analisti. Il valore non è solo nella velocità, ma nella qualità e nella tracciabilità delle decisioni. “Bisogna poter chiedere spiegazioni e capire come si arriva a una decisione”, ha sottolineato la manager di Sas, perché senza trasparenza non può esistere fiducia.
Dal potenziale alla fiducia: 5 principi chiave
Ed è proprio la fiducia il nodo centrale. Più autonomia significa più responsabilità, e quindi la necessità di preparare questi sistemi a operare in modo coerente con regole, valori e obiettivi aziendali. Per spiegare come farlo, Van Vlasselaer ha introdotto una semplice metafora, ma molto efficace: addestrare un agente AI è simile a crescere un figlio. “È nostra responsabilità prepararli a un mondo imprevedibile, a volte anche rischioso”. Da qui, cinque principi che diventano una vera guida operativa.
Il primo è definire regole chiare. Così come in famiglia esistono limiti semplici e non negoziabili, anche per gli agenti è fondamentale stabilire in modo trasparente quali dati utilizzare, quali modelli attivare e in quali contesti. Il secondo riguarda l’ambiente in cui “cresce”: senza dati affidabili e strumenti adeguati, anche il sistema più avanzato produce risultati distorti. È qui che la governance dei dati smette di essere un tema tecnico e diventa una leva strategica.

Il terzo principio è insegnare agli agenti a chiedere aiuto. Non tutto può essere automatizzato e, soprattutto, non tutto deve esserlo. Esistono situazioni ambigue in cui l’intervento umano è necessario, ed è fondamentale che l’agente sappia quando coinvolgere una persona, portando con sé tutte le informazioni utili per decidere. Il quarto elemento è l’accountability: “abbiamo bisogno di piena trasparenza e tracciabilità”, perché solo comprendendo il percorso decisionale è possibile attribuire responsabilità e garantire coerenza, anche in presenza di modelli che per natura non restituiscono mai risposte identiche.
Infine, la supervisione. Gli imprevisti esistono e non possono essere eliminati, ma gestiti. L’autonomia degli AI agent non significa assenza di controllo, bensì capacità di operare entro confini definiti, con un monitoraggio continuo che assicuri l’allineamento agli obiettivi e alle normative.
Oltre l’hype, il tema è la governance
C’è però un ultimo passaggio, meno visibile ma decisivo: molte organizzazioni utilizzano già sistemi di AI senza averne una visione completa. È il fenomeno dello shadow AI, che rende ancora più urgente costruire una mappa chiara di modelli, agenti e processi prima di poterli governare davvero.
Il messaggio, in definitiva, è netto. Gli AI agent sono già il presente e stanno ridefinendo il modo in cui le aziende prendono decisioni. Ma il vero vantaggio competitivo non sarà adottarli per primi. Sarà riuscire a fidarsi di loro. Perché, come ricorda Van Vlasselaer, è proprio la capacità di costruire agenti affidabili che determinerà chi saprà trasformare davvero l’intelligenza artificiale in valore.








