GenAI, fiducia in aumento: chi investe in affidabilità ottiene di più

Secondo un'indagine internazionale di Sas e Idc, le aziende che puntano su governance e trasparenza ottengono vantaggi superiori, ma restano una minoranza

Imprese italiane fiduciose e pronte a investire, ma indietro sull’AI© Shutterstock

La fiducia nella GenAI cresce a livello globale, ma la maggior parte delle organizzazioni non investe ancora in modo adeguato per garantirne l’affidabilità. È il quadro delineato dal nuovo IDC Data and AI Impact Report: The Trust Imperative, una ricerca commissionata da Sas, che rivela un evidente disallineamento tra la percezione positiva dell’intelligenza artificiale generativa e le reali misure messe in atto per governarne i rischi.

Lo studio, condotto su 2.375 professionisti in tutto il mondo e presentato a Milano, dimostra che solo il 40% delle aziende ha avviato investimenti concreti per rendere i propri sistemi di intelligenza artificiale realmente affidabili, puntando su governance, trasparenza e principi etici. Eppure, le organizzazioni che lo fanno hanno il 60% di probabilità in più di ottenere un raddoppio dei benefici economici generati dai progetti in ambito AI – misurati in termini di ritorno sull’investimento (Roi).

In modo paradossale, la GenAI – che include strumenti come ChatGpt – viene considerata fino al 200% più affidabile rispetto all’AI tradizionale, nonostante quest’ultima sia in realtà la tecnologia più collaudata e spiegabile. Quasi la metà degli intervistati (48%) dichiara “completa fiducia” nella GenAI, mentre meno di uno su cinque (18%) dice lo stesso dell’AI tradizionale.

Anche altre forme emergenti di intelligenza artificiale, come la Agentic AI e l’AI quantistica, stanno guadagnando terreno in termini di fiducia, sebbene non sempre supportate da tecnologie mature o framework di sicurezza consolidati.

L’AI secondo Sas: se non è affidabile, non è utile

Pochi investimenti in pratiche responsabili

Nonostante l’adozione dell’AI sia in forte accelerazione – con l’81% delle aziende che utilizza già la GenAI – solo una minoranza ha sviluppato policy di AI responsabile. La governance dell’intelligenza artificiale è citata come priorità strategica da appena il 2% delle organizzazioni, e meno del 10% sta lavorando a linee guida etiche.

Idc distingue tra leader e follower nell’adozione dell’AI affidabile: i primi hanno già implementato framework e investito in sicurezza, trasparenza e controllo, e sono anche quelli che ottengono i maggiori risultati. Chi guida su questo fronte ha 1,6 volte più probabilità di raggiungere un ritorno economico doppio rispetto agli altri.

Perché i dati sono la vera infrastruttura dell’intelligenza artificiale

Tre ostacoli al successo dell’AI

Lo studio evidenzia anche i principali fattori che rallentano l’adozione di un’AI davvero affidabile: il 49% delle aziende segnala basi dati non centralizzate o ambienti cloud poco ottimizzati, il 44% denuncia una mancanza di governance dei dati, mentre il 41% indica la carenza di personale qualificato.

Il problema più frequente è la difficoltà di accesso ai dati rilevanti (58%), seguita da questioni di privacy e compliance (49%) e qualità dei dati (46%). Eppure, come sottolineano i ricercatori, sono proprio queste le fondamenta su cui costruire un’AI sicura e redditizia.

Secondo il Cto di Sas, Bryan Harris, “la fiducia nell’AI è imprescindibile per aziende, lavoratori e società”, ma per costruirla servono implementazioni di successo, leadership consapevole e capacità di valutare in modo critico i risultati generati dall’intelligenza artificiale.

Resta sempre aggiornato con il nuovo canale Whatsapp di Business People
© Riproduzione riservata