Generative AI e compliance: rischi normativi e best practice

Generative AI e compliance: rischi normativi e best practice© Shutterstock

La generative AI, anche conosciuta come intelligenza artificiale generativa, è sempre più diffusa e utilizzata, ma sono emersi dei problemi di compliance che non possono essere più taciuti e ignorati. Perché le nuove tecnologie rappresentino davvero una risorsa e una marcia in più, infatti, devono essere utilizzare con cognizione di causa, responsabilmente e riducendo al minimo il margine d’errore.

Il problema più serio è quello legato ai bias cognitivi e alla discriminazione algoritmica. I dati analizzati dall’AI, infatti, possono essere viziati e, quindi, creare dei risultati non attendibili. I modelli di intelligenza artificiale generativa possono perpetuare o amplificare gli errori presenti nei dati di addestramento, portando a risultati discriminatori, specialmente in settori sensibili come l’assunzione di personale o la concessione di crediti. Le normative emergenti, che guardano a un’ethical AI, richiedono trasparenza e misure concrete per mitigare tali bias.

Generative AI, compliance e la mancanza di trasparenza

Molti modelli di Generative AI hanno problemi di compliance perché operano come “scatole nere”, rendendo difficile comprendere come vengono prese le decisioni. Si tratta di una mancanza di trasparenza che non permette quel lavoro di monitoraggio efficace che è necessario fare quando si chiede l’ausilio delle nuove tecnologie.

Questa opacità, inoltre, può ostacolare la conformità normativa, soprattutto quando è richiesta l’esplicabilità delle decisioni automatizzate. In un momento storico in cui si parla di AI Act e in cui anche l’Italia si sta muovendo per rendere più sicuro e circoscritto il campo in cui usufruire dell’intelligenza artificiale in maniera responsabile, è un problema abbastanza rilevante.

Generative AI, rischi di sicurezza e uso improprio

La Generative AI, quando si hanno problemi di compliance e non si mettono dei paletti, può essere sfruttata per scopi malevoli e poco virtuosi. Non è raro che si assista alla creazione di contenuti falsi o alla generazione di codice dannoso.

Per esempio, Anthropic ha segnalato tentativi di utilizzo improprio del suo sistema Claude AI per attività cybercriminali. Ad agosto 2025, l’azienda ha pubblicato un rapporto dettagliato in merito. Pare, infatti, un malintenzionato abbia sfruttato Claude Code, una versione del chatbot progettata per generare codice, per automatizzare quasi ogni fase di una campagna di estorsione informatica contro almeno 17 organizzazioni, tra cui enti governativi, istituzioni sanitarie e finanziarie.

Il  caso Anthropic

Nella fattispecie, ha scansionato reti alla ricerca di vulnerabilità e per ottenere accessi non autorizzati. Ha generato malware personalizzati per rubare dati sensibili. Inoltre, ha analizzare i dati rubati per determinare importi di riscatto appropriati, che variavano tra 75mila e più di 500mila dollari. Infine ha redatto note di riscatto personalizzate e psicologicamente mirate per ciascuna vittima. Si tratta di un caso che rappresenta un’evoluzione significativa nell’uso dell’intelligenza artificiale per scopi malevoli e ha evidenziato come strumenti avanzati possano essere sfruttati per automatizzare e potenziare attacchi informatici complessi.

Per arginare il problema, Anthropic si è trovato costretto a disattivare gli account coinvolti nelle attività illecite. Ha dovuto sviluppare strumenti di rilevamento avanzati per identificare e prevenire futuri abusi, ha collaborato con le autorità competenti per condividere informazioni e mitigare i rischi associati.

L’azienda ha sottolineato anche  l’importanza di un approccio proattivo nella gestione dei rischi legati all’uso dell’intelligenza artificiale, evidenziando la necessità di sviluppare misure di sicurezza più robuste per prevenire l’uso improprio di tali tecnologie. Questo incidente sottolinea l’urgenza di affrontare le sfide emergenti legate alla sicurezza e alla conformità nell’era dell’intelligenza artificiale generativa.

Best practice per garantire la conformità normativa

Per fortuna, con la Generative IA e il problema di gestione della compliance è possibile agire e migliorare la situazione generale. Il primo passo è implementare una governance dell’intelligenza artificiale più robusta, in grado di reagire a eventuali attacchi da parte di hacker senza scrupoli. Poi è necessario creare comitati etici specializzati in AI e sviluppare framework di gestione dei rischi specifici. In questo modo si aiuta a monitorare e mitigare i rischi associati all’utilizzo delle nuove tecnologie. Questi comitati, infatti, dovrebbero includere esperti tecnici, legali ed etici.

Non è di secondaria importanza investire nella formazione e nella sensibilizzazione del personale. Educare i dipendenti all’uso responsabile dell’AI e renderli preparati in merito alle normative in materia è essenziale. Programmi di formazione continui aiutano a mantenere alta la consapevolezza e a prevenire violazioni involontarie.

Un’altra strategia vincente prevede di condurre audit interni ed esterni per verificare la conformità dei sistemi AI alle normative e alle politiche aziendali. L’uso di strumenti di auditing efficaci sull’intelligenza artificiale può identificare anomalie e garantire maggiore trasparenza.

È necessario anche utilizzare dati primari e fonti di terze parti affidabili per l’addestramento dei modelli di intelligenza artificiale. È bene evitare l’uso di dati non autorizzati o di provenienza incerta per ridurre il rischio di violazioni della privacy e della proprietà intellettuale.

Conclusioni

Perché tutto questo accada e funzioni in ogni sua parte, si deve favorire la collaborazione fra team legali, tecnici e di business per garantire che l’adozione dell’AI sia allineata con gli obiettivi aziendali e le normative vigenti in materia. Questo approccio integrato aiuta a identificare e mitigare i rischi in modo proattivo ed efficace. Serve, in sostanza, che si parli fra comparti complementari con il fine di andare tutti nella stessa direzione. Soltanto rafforzando il sistema si possono ridurre al minimo i rischi di intrusioni e di malfunzionamenti che non danno il giusto lustro alle potenzialità dell’intelligenza artificiale.

In definitiva, la Generative AI offre opportunità significative per le aziende, ma comporta anche rischi normativi che devono essere gestiti con attenzione e con una compliance mirata. Implementando le best practice e mantenendo un approccio attento a mantenere elevato il livello di conformità, le organizzazioni possono sfruttare i vantaggi di questo tipo di intelligenza artificiale in modo responsabile e senza violare alcuna legge. Mai come oggi è necessario conoscere e rispettare i paletti messi per un utilizzo consapevole e virtuoso delle nuove tecnologie.

Altri contenuti che possono interessarti su intelligenza artificiale e business

Resta sempre aggiornato con il nuovo canale Whatsapp di Business People
© Riproduzione riservata