L’Ue ha avviato una nuova indagine formale contro il social network X e il suo sistema di intelligenza artificiale Grok, entrambi legati all’imprenditore Elon Musk, per verificare il rispetto delle norme comunitarie sui contenuti digitali. L’azione, annunciata il 26 gennaio 2026, si concentra su deepfake sessuali. Si tratta della possibilità che immagini manipolate siano state diffuse e che si sia venuto a verificare il reato di abuso sessuale su minori. Il tutto sarebbe stato generato con l’ausilio dell’intelligenza artificiale.
Secondo la Commissione europea, questi rischi sembrano essersi concretizzati, esponendo gli utenti a “gravi danni”. L’obiettivo dell’inchiesta è verificare se X abbia adeguatamente valutato e mitigato tali rischi, come previsto dal Dsa, il Digital Services Act, la normativa che impone alle grandi piattaforme digitali di prevenire e gestire la diffusione di contenuti illegali e dannosi.
Cosa sta facendo l’Unione e perché
La nuova indagine dell’Ue amplia un procedimento già avviato nel dicembre 2023, che riguardava l’adeguatezza della gestione dei rischi sistemici di X, compresi i sistemi di raccomandazione dei contenuti. Ora l’attenzione è sul ruolo di Grok. Si parla del chatbot di intelligenza artificiale sviluppato dalla società di Elon Musk, xAI, e integrato nel social network . Sotto esame ci sono anche le sue funzionalità di generazione e manipolazione di immagini.
La decisione dell’Unione arriva in un contesto in cui Grok è stato al centro di critiche a livello internazionale per aver generato deepfake sessuali non consensuali di donne e minori, attraverso richieste di utenti che chiedevano all’AI di “spogliare” o modificare foto reali. Le autorità – in Paesi come Regno Unito, Indonesia e Malaysia – hanno già preso provvedimenti o avviato indagini simili.
Le dichiarazioni della Commissione
La vicepresidente della Commissione Ue, Henna Virkkunen, ha definito tali contenuti “una forma violenta e inaccettabile di degradazione”, sottolineando che l’inchiesta mira a determinare se i diritti dei cittadini — in particolare di donne e bambini — siano stati trattati come “danni collaterali” del servizio.
Se l’autority dovesse riscontrare violazioni del DSA, X potrebbe affrontare sanzioni significative, fino al 6% del fatturato globale annuo, o essere obbligata a modificare le proprie pratiche di gestione dei contenuti.
Il caso ribadisce la crescente attenzione delle autorità europee nel regolamentare l’uso dell’intelligenza artificiale nei servizi online e, nello specifico, la responsabilità delle piattaforme digitali nel prevenire la diffusione di contenuti illegali o pericolosi.
© Riproduzione riservata
© Shutterstock




