Economia

"Ddl IA, deepfake nel mirino. Ma è la libertà d'espressione a pagare il prezzo più caro"

Il rischio dei deepfake e l'iperregolamentazione a danno della libertà d'espressione e dell'innovazione. L'intervista all'avvocato Giuseppe Vaciago di 42LawFirm

di Rosa Nasti

Regolamentare i deepfake senza minacciare la libertà d'espressione: giusto normare l'IA? Parla l'Avv. Giuseppe Vaciago (42LawFirm)

Nei giorni scorsi, il Senato ha dato il primo via libera al Ddl AI, che ora attende il passaggio alla Camera. Tra i punti più rilevanti c’è l’introduzione del reato di deepfake, che colpisce chi diffonde illegalmente contenuti generati o manipolati artificialmente. Una misura che si inserisce nel dibattito, sempre più acceso, su come e se regolamentare l’intelligenza artificiale, una tecnologia tanto rivoluzionaria quanto pericolosa.

Il provvedimento stabilisce i principi cardine per l’uso dell’AI, puntando alla tutela dei diritti fondamentali e delle libertà individuali. E il deepfake è una delle minacce più insidiose: inganni perfetti, capaci di distorcere la realtà, manipolare opinioni, ma anche reprimere, in un certo senso, la libertà d'espressione. Affaritaliani.it ne ha parlato con l’avvocato Giuseppe Vaciago di 42LawFirm.

Che cosa prevede il Ddl IA e in cosa si differenzia dall'AI Act?

Il disegno di legge sull'intelligenza artificiale (Ddl IA) si inserisce in un quadro normativo più ampio che comprende l'AI Act, il regolamento europeo sull'IA. La differenza principale è che l'AI Act è una normativa generale che disciplina l'uso dell'intelligenza artificiale a livello europeo, con particolare attenzione ai fornitori e ai produttori di queste tecnologie. Il Ddl IA, invece, è una normativa nazionale che mira a regolamentare l'uso dell'IA in specifici settori, tra cui la sanità, la giustizia e la pubblica amministrazione. 

Attualmente, il Ddl IA è stato già approvato dal Senato e si avvia verso la definitiva approvazione in Parlamento. In sintesi, da un lato il regolamento europeo stabilisce linee guida generali sull’uso dell’intelligenza artificiale, mentre il disegno di legge nazionale si occupa di regolamentare l’applicazione dell’IA in alcuni ambiti chiave che ne faranno un uso concreto.

In settori come la giustizia o la sanità, in che modo l’IA verrà integrata?

Per quanto riguarda la giustizia, il disegno di legge esclude esplicitamente l’uso dell’intelligenza artificiale da parte dei giudici per la redazione delle sentenze, la valutazione delle prove o la descrizione dei fatti. Nulla viene però detto riguardo all’uso dell’IA da parte degli avvocati.

Nel settore sanitario, invece, il Ddl prevede una maggiore apertura. La ricerca medica ha bisogno di svilupparsi e, rispetto ad altri ambiti, è più semplice garantire l’anonimizzazione dei dati. A condizione che i dati siano resi anonimi, sarà possibile utilizzarli per ricerche basate sull’intelligenza artificiale. Questo è un passaggio importante, perché attualmente la normativa sulla privacy pone forti limiti, rendendo complessa l’analisi dei dati anche quando sono anonimizzati. Il decreto, quindi, apre a nuove possibilità di sviluppo per la ricerca sanitaria.

Il Ddl IA introduce il reato di diffusione illecita di deepfake. Quali sono le principali implicazioni di questa norma? Esiste il rischio che norme troppo rigide possano limitare la libertà di espressione e la creatività digitale?

Il reato è stato introdotto per colpire chi produce testi, video o immagini generati dall’intelligenza artificiale con l’intento di danneggiare qualcuno. Pensiamo, ad esempio, al celebre deepfake del Papa con il giubbotto bianco: a prima vista, non sembra arrecare un danno diretto, ma potrebbe essere considerato blasfemo da un punto di vista religioso o persino dal Vaticano.

Arriviamo così al tema della libertà di espressione. Tutte le normative sulle nuove tecnologie, direttamente o indirettamente, possono limitarla, così come possono influire sullo sviluppo tecnologico e su altri diritti fondamentali. La libertà di espressione è tutelata dall’articolo 21 della Costituzione, ma ha dei limiti, come il rispetto della pertinenza, della continenza e dell’interesse pubblico. Certamente, il rischio che una norma di questo tipo possa essere usata per restringere la libertà di espressione esiste, ma d’altra parte è evidente che l’utilizzo dei deepfake per scopi fraudolenti, come nel caso della truffa a Crosetto, debba essere contrastato.

Oltre alla legislazione, quali strumenti possono essere adottati per contrastare la diffusione dei deepfake? E come possiamo educare il pubblico a riconoscerli?

Le normative, per loro natura, intervengono in modo repressivo, ma la storia insegna che non sempre questa è la soluzione più efficace. Esistono strumenti tecnici che potrebbero aiutare, come la trasparenza obbligatoria e il cosiddetto labeling. Ad esempio, la Cina ha già introdotto l’obbligo di applicare un marchio sui contenuti generati dall’intelligenza artificiale, e a partire da settembre 2025 questa regola sarà operativa. In Europa, invece, entrerà in vigore nell’agosto 2026.

Un’altra soluzione è il watermarking, ovvero l’applicazione di un’etichetta digitale indelebile sui contenuti generati dall’IA. Questo potrebbe essere un valido strumento di contrasto, considerando che la maggior parte dei deepfake viene prodotta con strumenti generalisti, non specificamente progettati per creare falsificazioni ingannevoli.

E dal punto di vista tecnico?

Tutto ciò che è tecnologico è sempre gestibile da entrambe le parti: esiste sempre la possibilità di intervenire. La chiave, quindi, è agire rapidamente, coinvolgendo anche le piattaforme di condivisione. Tecnologicamente, chi ha le competenze può fare quasi tutto, e strumenti come la digital forensics o altri metodi investigativi permettono di identificare se un documento è stato manipolato tramite intelligenza artificiale. Tuttavia, il problema è il tempo: spesso questi strumenti richiedono un’analisi lunga e complessa, mentre una frode può causare danni enormi in davvero pochissime ore.

Pensiamo, ad esempio, a un deepfake utilizzato per influenzare un’elezione: bastano due ore per diffondere un contenuto falso e condizionare l’opinione pubblica. Per questo motivo, la rapidità d’intervento è fondamentale. Un possibile approccio potrebbe essere quello di sfruttare i meccanismi già adottati dalle piattaforme, che analizzano i contenuti su larga scala. Monitorare i fenomeni virali e individuare se un trend nasce da un deepfake o da un evento reale potrebbe essere una strategia efficace per arginare il problema prima che si diffonda incontrollabilmente.

L’Italia, con questo Ddl, si sta muovendo in anticipo rispetto ad altri Paesi? Qual è la situazione nel resto d’Europa?

Rispetto ad altri Paesi europei, l’Italia sta adottando un approccio più deciso. La Spagna, ad esempio, sta lavorando su una normativa simile, ma è ancora in una fase di gestazione. Molti Stati sono più attendisti, probabilmente in attesa di valutare gli effetti del Regolamento europeo sull’intelligenza artificiale prima di introdurre norme nazionali più specifiche.

D’altra parte, ci troviamo in una fase di iper-regolamentazione. Alcuni temono che l’introduzione di nuove leggi possa generare ulteriori problemi e limitazioni, anziché risolverli.

LEGGI ANCHE: In migliaia licenziati da un algoritmo, l'IA ci ruba il lavoro? Ecco tutta la verità

Questa regolamentazione può rappresentare un freno all’innovazione?

Dipende molto da come sarà applicata. Personalmente, condivido questo disegno di legge perché contribuisce a sensibilizzare l’opinione pubblica su un tema cruciale e tocca aspetti importanti, come quello della sanità. D’altra parte, bisogna considerare che siamo già in un contesto di forte regolamentazione, e la libertà di espressione è un tema da tenere in considerazione. Quando si parla di deepfake, infatti, c’è sempre il rischio che le normative diventino strumenti di censura, usati per limitare la diffusione di determinati contenuti o creare un clima di paura attorno a queste tecnologie.

Alcuni studiosi sostengono che i deepfake rappresentino ormai una nuova normalità. Non possiamo semplicemente eliminarli: esistevano già prima dell’IA, ma ora sono diventati più accessibili e diffusi. Piuttosto che cercare di estirpare il fenomeno con leggi sempre più restrittive, dovremmo imparare a conviverci, conoscerne i limiti e investire nella formazione delle persone. Forse la strada giusta non è solo quella normativa, ma anche quella culturale: imparare a riconoscerne i limiti, formare le persone e investire in maggiore consapevolezza sui rischi e le opportunità legate a queste tecnologie potrebbe essere una soluzione più efficace e meno restrittiva.