Economia

L'intelligenza artificiale non è a rischio zero: dati rubati e allucinazioni del sistema. L'importanza della responsabilità civile

Intervista ad Antonio Albanese, professore ordinario di diritto civile nell’Università Cattolica di Milano

Prevenire i rischi dell’IA: l’importanza della responsabilità civile

L’utilizzo dell’Intelligenza artificiale non soltanto consente di aumentare l’efficienza e l’efficacia delle attività umane, ma le rende anche più sicure dal punto di vista della minore incidenza di errori umani. Questa maggiore sicurezza non significa tuttavia rischio zero. Anzi, taluno manifesta il timore che l’utilizzo dell’Intelligenza artificiale possa generare nuovi rischi di danni. Qual è la sua opinione al riguardo come esperto di responsabilità civile?

Si pensi in primo luogo alla sicurezza dei dati personali: i sistemi di intelligenza artificiale sfruttano tecnologie caratterizzate dalla capacità di processare un numero elevatissimo di informazioni e questo aumenta il rischio di attacchi informatici e comunque di sfruttamento e divulgazione illecita di dati personali. Vi sono, inoltre, problemi di affidabilità dei dati che possono generare il rischio di discriminazioni tra soggetti o di output viziati da bias o da allucinazioni del sistema: si pensi  (ad esempio diagnosi mediche e più in generale previsioni sbagliate. Per altro verso l’intelligenza artificiale c.d. generativa accresce il rischio di lesioni della proprietà intellettuale, consentendo di elaborare testi, musiche, immagini, che sfruttano opere accessibili in rete. Da questo punto la responsabilità civile svolge un importante ruolo nell’elaborazione di strategie normative che prevengano o riducano i danni, senza arrestare lo sviluppo tecnologico, ma garantendo che esso di orienti in senso rispettoso dei diritti fondamentali delle singole persone umane e degli interessi della società nel suo complesso.

In che modo la tutela risarcitoria può contribuire a prevenire questi rischi?

La responsabilità civile svolge in modo efficiente la sua funzione preventiva nella misura in cui, attraverso il risarcimento, pone il costo del danno in capo al soggetto che è in grado di prevenirlo sostenendo il minor costo. In tal modo, la perdita complessiva di risorse sarà ridotta al minimo, in quanto l’imprenditore, attraverso una analisi costi-benefici, sceglierà la soluzione più conveniente dal punto di vista economico tra prevenire il danno e risarcirlo. Per altro verso, vi sarà una maggiore probabilità che le misure di prevenzione, proprio in ragione del loro minore costo, vengano effettivamente adottate, con correlativa diminuzione del rischio che il danno si verifichi. Da questo punto di vista, la responsabilità è coerente con la logica del mercato, in quanto i costi del risarcimento (anche sotto o il profilo assicurativo) e/o della prevenzione si riflettono sul prezzo dei prodotti e servizi offerti al mercato, premiando le imprese più efficienti nella gestione dei relativi rischi.

La disciplina classica della responsabilità civile trova quindi applicazione insieme alle nuove norme dell’AI Act. Le due normative seguono approcci diversi? Quali sono le principali differenze e come interagiscono?

Il Regolamento europeo sull’intelligenza artificiale (Ai Act) segue una strategia diversa da quella che caratterizza la responsabilità civile, imponendo alle imprese determinate procedure e sistemi di risk management, che incidono in via preventiva sulla struttura organizzativa dell’impresa, attraverso doveri positivi di comportamento, la cui violazione è sanzionata indipendentemente da concrete condotte illecite e dall’effettivo verificarsi di un danno. Le misure preventive non sono quindi decise dalle imprese in base a una analisi economica costi-benefici, ma sono determinate a livello centralizzato. Questo però genera il rischio di soluzioni economicamente inefficienti: può accadere che i costi di prevenzione superino il costo del danno. Ovviamente questa scelta si giustifica quando sono in gioco diritti e valori fondamentali, che non possono essere oggetto di bilanciamento da parte di soggetti privati i base a un calcolo meramente economico.

Un esempio è la disciplina prevista dal Regolamento europeo con riguardo ai c.d. sistemi ad elevato rischio: sono previste stringenti misure organizzative soprattutto a carico del fornitore (produttore). La violazione di queste regole, oltre a determinare l’applicazione di sanzioni amministrative, in caso di danno integra un particolare tipo di colpa, intesa come difetto di un’organizzazione idonea a prevenire e mitigare i rischi. Ne deriva una responsabilità civile non soltanto dell’impresa produttrice, ma anche degli amministratori che non abbiano adottato adeguati assetti organizzativi.

LEGGI ANCHE: "IA a rischio bolla? Dall'intelligenza artificiale non c'è via di ritorno. In Europa nessuna leadership nel settore"

Si può pensare all’intelligenza artificiale come un soggetto giuridico, dotato di un suo patrimonio destinato al risarcimento di eventuali danni?

A tal fine sarebbe necessaria una apposita previsione di legge, ma una soluzione di questo tipo andrebbe incontro a gravi controindicazioni. In primo luogo, si rischia di limitare la tutela risarcitoria dei danneggiati, depotenziando la funzione preventiva della responsabilità civile, nella misura in cui il patrimonio di cui viene dotata l’IA risulti insufficiente a coprire i danni che abbiano a verificarsi. Questa scelta legislativa sarebbe inoltre incompatibile con il nostro sistema, che si caratterizza in senso “antropocentrico” e non “antropomorfico”. Le persone giuridiche e gli enti non sono equiparati alla persona fisica, ma svolgono ruolo servente rispetto ad essa, meramente strumentale alla soddisfazione di interessi umani. Gli enti si caratterizzano per la necessaria presenza di uomini che concorrono in modo continuativo a formarne la volontà, le norme sull’organizzazione e il funzionamento degli enti in realtà disciplinano rapporti tra esseri umani, risolvendo i conflitti tra interessi contrapposti che ad essi fanno capo. Tale elemento umano manca invece nei sistemi di intelligenza artificiale che, pur agendo secondo algoritmi elaborati dall’uomo, da questo punto di vista non potrebbero essere equiparati agli altri soggetti di diritto.