AI, l’intelligenza artificiale analizza più dati ma commette più errori

AI: l’intelligenza artificiale analizza più dati ma commette più errori, perché© Shutterstock

A sollevare il problema sulla veridicità delle informazioni legato all’AI, che analizza più dati ma non è poi così precisa e commette errori, è stato un fatto legato a Cursor, un software per iOs, Windows e Linux che si basa sull’intelligenza artificiale. Pare che agli utenti sia arrivata una comunicazione relativa a un cambiamento nelle politiche aziendali falsa, peccato che questa abbia provocato varie cancellazioni di account e un minore utilizzo dell’applicazione. 

“Non abbiamo alcuna politica del genere. Naturalmente siete liberi di usare Cursor su più dispositivi – ha scritto su Reddit il Ceo e cofondatore dell’azienda, Michael Truell – Purtroppo si è trattato di una risposta errata da parte di un bot AI per il supporto di primo livello”.

L’AI non è ancora affidabile

Nonostante ChatGPT e altri dispositivi simili siano in funzione da ormai due anni, ancora non si ha la certezza che producano informazioni accurate. I miglioramenti sviluppati da OpenAI, Google e DeepSeek non sono la soluzione: si stanno rivelando infatti più deleteri che utili. Gli esperti hanno soprannominato questi errori “allucinazioni”, che hanno toccato il picco del 79%. Ancora non si punta alla verità ma alla risposta più probabile e pare che questo margine di errore “non scomparirà mai”, ha detto Amr Awadallah, Ceo di Vectara.

L’AI che analizza sempre più dati, ma commette errori grossolani, può rappresentare un problema serio se si pensa ai dati sensibili degli utenti: documenti legali, informazioni mediche oppure informazioni aziendali. In sostanza, il valore aggiunto dell’intelligenza artificiale rischia di trasformarsi in un cavallo di Troia.

I risultati degli ultimi test

Secondo i test condotti da OpenAI, le versioni più recenti dei suoi sistemi producono allucinazioni con una frequenza maggiore rispetto al sistema precedente. o3 ha generato allucinazioni nel 33%, più che doppio rispetto a o1. Il sistema o4-mini ha toccato quota 48%.

Ecco allora che molte aziende si stanno affidando alla tecnica dell’apprendimento per rinforzo, che utilizza sia il tentativo che l’errore. Nei campi dell’informatica e della matematica funziona bene, in altri ambiti meno.

Inoltre, i modelli di ragionamento che affrontano problemi complessi, step by step, prima di fornire una risposta, rischiano di generare errori a cascata. Adesso, però, i bot più recenti mostrano ogni passaggio del processo e permettono di fare una verifica. Ma , così, l’AI è una risorsa o un impedimento?

Resta sempre aggiornato con il nuovo canale Whatsapp di Business People
© Riproduzione riservata