Il deep fake è reato: l’AI rende più grave l’aggiotaggio

Il deep fake è reato: l’AI rende più grave l’aggiotaggio© Shutterstock

Il deep fake da oggi è reato. L’utilizzo dell’AI e degli algoritmi in maniera illecita viene punito penalmente. Verranno sanzionate la pubblicazione e la diffusione di immagini, video o voci falsificati oppure alterati dalle nuove tecnologie, che non sono autentici e che provocano un danno alla persona direttamente interessata.

È possibile presentare una querela, ma si procede comunque d’ufficio nel caso in cui è stato verificato un altro reato a sua volta perseguibile d’ufficio oppure a essere danneggiata è una persona incapace/di pubblica autorità.

I dettagli della nuova legge sull’AI

Il deep fake diventa reato se la condotta provoca un danno che, in assenza di una specifica indicazione sulla necessità del profitto, può essere anche di natura non patrimoniale. Con questa espressione inglese si intende la diffusione di”un’immagine o contenuto audio o video generato o manipolato dall’intelligenza artificiale che assomiglia a persone, oggetti luoghi o altre entità o eventi esistenti e che apparirebbe falsamente autentico o veritiero a una persona”, a dirlo è proprio l’AI Act.

Le cose si complicano quando i sistemi di intelligenza artificiale sono considerati un “mezzo insidioso, quando le conseguenze del reato sono state aggravate o quando l’uso di programmi AI ha ostacolato la difesa, pubblica o privata”.

Infine, la legge introduce due aggravanti speciali, oltre a quella a presidio dei diritti politici dei cittadini, per contrastare in maniera più puntuale la criminalità finanziaria. Si fa riferimento ai reati di aggiotaggio e di manipolazione del mercato, con detenzione che può andare da un minimo di due a un massimo di sette anni.

L’AI quando diventa pericolosa?

Non è raro che i social bot, software che simulano il comportamento degli umani, sono utilizzati per il pump and dump, una frode finalizzata a ottenere un’artificiosa lievitazione del prezzo di un titolo attraverso dichiarazioni false per vendere poi a un prezzo più alto.

Inoltre, un AI agent commerciale, con l’utilizzo di una tecnica di apprendimento automatico, può attuare la pratica dello spoofing finanziario, piazzando ordini, in modo continuativo e protratto nel tempo, senza avere l’intenzione di eseguirli. Così facendo manipola i prezzi di mercato.

Infine, secondo il Csm, il Consiglio superiore della magistratura, “la peculiarità dei sistemi di intelligenza artificiale, dotati di tecniche di autoapprendimento, comporta il rischio che all’agente artificiale venga delegata la stessa scelta circa la specifica offesa da realizzare, con evidenti problematicità in punto di accertamento dell’elemento psicologico del reato”. Oggi più che mai serve un approccio etico e sostenibile agli strumenti che l’AI mette a disposizione.

Resta sempre aggiornato con il nuovo canale Whatsapp di Business People
© Riproduzione riservata