MediaTech

"Il governo dell’intelligenza artificiale. Gestione dei rischi e innovazione responsabile", il nuovo libro di Ruben Razzante. Intervista

Un punto di riferimento imprescindibile per chiunque sia coinvolto nello sviluppo, nell'applicazione e nella regolamentazione dell'Intelligenza Artificiale

Il governo dell’intelligenza artificiale

In questi giorni, a distanza di poco meno di due mesi dall'approvazione da parte del Consgilio Ue, l'Unione Europea ha pubblicato nella Gazzetta Ufficiale il testo completo e definitivo dell'AI Act, la legge che mira a regolamentare l'Intelligenza Artificiale per garantire sicurezza, trasparenza e rispetto dei diritti fondamentali. L'obiettivo principale è quello di proteggere i diritti fondamentali, la democrazia, lo Stato di diritto e la sostenibilità ambientale dai sistemi di AI ad alto rischio, promuovendo allo stesso tempo l'innovazione e garantendo all'Europa una posizione di leadership nel settore.  Di fatto la nuova legge entrerà in vigore il 2 agosto e poi sarà pienamente operativa fra 24 mesi, il 2 agosto 2026, data in cui quanto previsto dall’AI Act sarà applicabile a tutti gli sviluppatori di AI.

Proprio l’Intelligenza Artificiale è il tema centrale dell’ultimo libro del prof. Ruben Razzante dal titolo “Il governo dell’Intelligenza Artificiale. Gestione dei rischi e innovazione responsabile” (Cacucci Editore), un punto di riferimento imprescindibile per chiunque sia coinvolto nello sviluppo, nell'applicazione e nella regolamentazione dell'Intelligenza Artificiale; un libro che vuole contribuire in modo significativo al dibattito pubblico su come plasmare il futuro di questa tecnologia in modo responsabile e sostenibile.

Nel libro, che ospita anche un saggio a firma del prof.Antonio Albanese, Docente di diritto civile all’Università Cattolica di Milano, l’autore esplora il vasto panorama dei pro e dei contro legati all’impiego dell’Intelligenza Artificiale in settori chiave della società contemporanea. Attraverso un’analisi approfondita, il testo offre una visione equilibrata delle sfide, delle opportunità e dei rischi che emergono dall’integrazione dell’AI in ambiti quali la pubblica amministrazione, la sanità, l’istruzione, il giornalismo e l’informazione, la tutela dei diritti (copyright, privacy, reputazione, uguaglianza e parità di accesso), la finanza, l’automotive, l’agrifood, l’ambiente, la cultura, il tempo libero, il turismo, lo sport. Tuttavia, il libro non rinuncia ad esaminare attentamente le preoccupazioni etiche e sociali correlate, incluse quelle riguardanti la privacy dei dati e l’equità nell’accesso alle tecnologie avanzate, ma anche la sicurezza dei dati e la trasparenza algoritmica.

Abbiamo intervistato il prof. Ruben Razzante, docente di Diritto dell’informazione all’Università Cattolica del Sacro Cuore di Milano e fondatore del portale www.dirittodellinformazione.it, per approfondire alcuni dei temi trattati nel suo libro, cercando di capire meglio le sue prospettive sulla regolamentazione dell'AI e su come questa possa influenzare il futuro della società.

Professore, lei nel libro parla di primato europeo sull’AI Act. Che cos’è l’AI Act e in cosa si sostanzia questo primato?

L’AI Act nel panorama mondiale rappresenta il primo tentativo di disciplinare l’Intelligenza Artificiale, un traguardo prezioso che conferma il primato dell’Europa digitale sul fronte regolatorio e il suo ruolo di trendsetter in questo ambito. L’AI Act è l’alba di un giorno nuovo per la civiltà giuridica e rappresenta innegabilmente uno snodo fondamentale per il futuro dell’umanità, destinato ad incidere significativamente sul fondamentale rapporto tra tecnologia e persona, contribuendo a tracciarne gli sviluppi e le direzioni per i prossimi lustri.

La recente pubblicazione dell’AI Act in Gazzetta Ufficiale dell’Ue segna un passaggio cruciale verso un utilizzo responsabile e etico dell’Intelligenza Artificiale, stabilendo standard chiari e norme rigorose per proteggere i diritti fondamentali dei cittadini europei. Il documento, che entrerà pienamente in vigore il 2 agosto 2026, è stato accolto con enorme attenzione da parte della comunità internazionale, il che conferma il ruolo di guida dell’Europa nel plasmare il futuro della tecnologia AI.

Qual è la sua visione per il futuro dell'Intelligenza Artificiale e come pensa che questa tecnologia influenzerà la nostra vita quotidiana nei prossimi anni?

La mia visione per il futuro dell'Intelligenza Artificiale è ottimista ma riflessiva. Credo che questa tecnologia continuerà a rivoluzionare numerosi aspetti della nostra vita quotidiana nei prossimi anni, portando con sé grandi opportunità e sfide. Ad esempio, vedo l'AI migliorare ulteriormente la nostra efficienza e la nostra produttività in molti settori, dalla salute alla mobilità, dalla sicurezza alla gestione delle risorse. Tuttavia, ci sono anche delle preoccupazioni valide da considerare. È fondamentale affrontare le questioni legate all'etica e alla sicurezza dell'AI, inclusi problemi come la trasparenza algoritmica, la privacy dei dati personali e l'impatto sull'occupazione. Nel complesso, sono fiducioso che, con un approccio collaborativo tra governi, industria, accademie e società civile, possiamo massimizzare i benefici dell'AI mentre mitighiamo i rischi associati. Il futuro dell'Intelligenza Artificiale sarà determinato dalla nostra capacità di gestire questa tecnologia in modo responsabile, ponendo sempre al centro il benessere e il progresso dell'umanità.

Quali crede siano i principali rischi e le più grandi opportunità associate all'adozione diffusa dell'Intelligenza Artificiale nei prossimi anni?

L'adozione sempre più diffusa dell'Intelligenza Artificiale presenta una gamma di rischi ma anche di opportunità significative. Da una parte l'AI promette di rivoluzionare settori come l'automazione industriale, migliorando l'efficienza operativa e aprendo nuove opportunità economiche. Automatizzando compiti ripetitivi e migliorando la precisione nelle decisioni, può liberare risorse umane per compiti più creativi e strategici.

Tuttavia, ci sono anche rischi da considerare. L'automazione potrebbe portare a una disoccupazione tecnologica in settori specifici, se non accompagnata da programmi di riqualificazione adeguati. Inoltre, l'uso dell'AI solleva preoccupazioni sulla sicurezza e sulla privacy dei dati, specialmente considerando la vasta quantità di informazioni personali richieste per addestrare algoritmi di AI. Il rischio di bias nei dati e negli algoritmi è un altro punto critico, perché esiste il concreto pericolo di perpetuare discriminazioni esistenti o di prendere decisioni ingiuste.

Dal punto di vista delle opportunità l'AI promette innovazioni significative nei servizi personalizzati, miglioramenti nell'assistenza sanitaria e scoperte scientifiche accelerate e può anche contribuire a risolvere sfide globali come il cambiamento climatico, utilizzando modelli predittivi avanzati per ottimizzare l'uso delle risorse e migliorare la sostenibilità. In sintesi, l'adozione diffusa dell'AI rappresenta un momento critico per la società, con il potenziale per migliorare notevolmente la qualità della vita e stimolare la crescita economica.

Tuttavia, è cruciale affrontare i rischi con una regolamentazione adeguata, un focus sulla sicurezza e l'etica, e politiche pubbliche che promuovano un'adozione responsabile e inclusiva dell'AI.

Secondo lei quali caratteristiche dovrebbe avere l’Intelligenza Artificiale per essere rispettosa dei diritti fondamentali?

Per essere rispettosa dei diritti fondamentali, l'Intelligenza Artificiale dovrebbe essere progettata con un approccio trasparente e equo. Ciò significa che i processi decisionali dell'AI devono essere comprensibili e non discriminatori, evitando i bias basati su caratteristiche come razza, genere o orientamento sessuale. Deve essere garantita la privacy dei dati utilizzati, con controlli rigorosi per evitare usi impropri o divulgazioni non autorizzate. È essenziale anche stabilire un sistema di accountability, dove gli sviluppatori e gli utilizzatori dell'AI siano responsabili delle decisioni prese e in grado di correggere eventuali errori. Inoltre, l'AI deve essere sicura, deve proteggere i sistemi da vulnerabilità e minacce, e deve rispettare pienamente i diritti umani, includendo libertà civili come la libertà di espressione e l'accesso all'informazione. Assicurare che l'AI sia conforme alle normative e che sia accessibile a tutti senza discriminazioni sono ulteriori elementi chiave per garantire che essa contribuisca positivamente al benessere sociale e individuale.

Ruben RazzanteRuben Razzante