Legge sull'IA, fumata nera in Ue: sicurezza e diritti i nodi principali

Dalla valutazione dei diritti fondamentali al riconoscimento facciale: i punti critici del confronto di 22 Ore tra le istituzioni comunitarie

di Redazione Mediatech
Intelligenza Artificiale
MediaTech

AI Act: nessun intesa nelle trattative per raggiungere l'accordo 

La tanto attesa conclusione della discussione sull'Artificial Intelligence Act dell'Unione Europea sembra ancora lontana, con la fumata nera che aleggia sulle trattative per l'accordo finale. Dopo una maratona negoziale di ventidue ore, le istituzioni comunitarie non sono riuscite a raggiungere un consenso, e i negoziati riprenderanno domani mattina, vnerdì 8 dicembre, alle 9. 

Negli ultimi giorni, i rappresentanti dei Governi avevano concordato un accordo "in linea di principio" sui modelli fondativi come GPT-4, che costituiscono la base del chatbot ChatGPT, uno degli aspetti centrali del negoziato. Tra i punti critici emersi figurano la valutazione dell'impatto sui diritti fondamentali, l'utilizzo dei sistemi di identificazione biometrica in tempo reale e a distanza, come il riconoscimento facciale, e le deroghe relative alla sicurezza nazionale. Nonostante le lunghe ore di negoziati, i legislatori dell'Unione Europea non sono riusciti a raggiungere un accordo definitivo sull'IA Act, la prima legge mondiale sull'intelligenza artificiale. Il via libera, previsto originariamente nelle ore notturne, è stato rinviato più volte, e la conferenza stampa programmata per la mattina è stata posticipata. Il commissario Ue per il Mercato Interno, Thierry Breton, ha dichiarato: "Sono stati compiuti molti progressi nelle ultime 22 ore. I negoziati con il Parlamento e il Consiglio dell'UE riprenderanno domani alle 9:00".

Il cosiddetto "trilogo" tra Commissione, Parlamento, e Consiglio europeo si trova ora alle battute finali, ma il destino dell'accordo pende su due aspetti cruciali che vanno chiariti: la regolamentazione del riconoscimento facciale nei luoghi pubblici per garantire la sicurezza senza violare la privacy dei cittadini e la gestione dei rischi sistemici associati ai grandi modelli, come ChatGPT, senza penalizzare le imprese europee che stanno emergendo in questo settore.

Come parte della sua strategia digitale, l'UE mira a regolamentare l'Intelligenza Artificiale per garantire un ambiente favorevole allo sviluppo e all'uso di questa tecnologia innovativa. L'IA promette numerosi vantaggi, tra cui un miglioramento dell'assistenza sanitaria, trasporti più sicuri e puliti, produzione efficiente, e un'energia più sostenibile. Nel 2021, la Commissione aveva presentato il primo quadro normativo dell'UE sull'IA, proponendo un'analisi e classificazione dei sistemi in base al rischio che rappresentano per gli utenti. 

La priorità del Parlamento è garantire che gli IA utilizzati nell'UE siano sicuri, trasparenti, tracciabili, non discriminatori e rispettosi dell'ambiente. La definizione tecnologicamente neutra e uniforme per l'IA è un altro obiettivo, applicabile ai futuri sistemi di Intelligenza Artificiale.  Pertanto, le nuove regole che verranno stabilite sanciranno obblighi per fornitori e utenti in base al livello di rischio dell'IA. Sistemi ad alto rischio, come quelli che comportano minacce per le persone, sono vietati, mentre quelli che influiscono negativamente sulla sicurezza o sui diritti fondamentali saranno soggetti a un'accurata valutazione prima di essere messi sul mercato. I sistemi a rischio limitato dovranno garantire almeno una trasparenza di base per consentire agli utenti di prendere decisioni informate. Per quanto riguarda l'IA generativa, come ChatGPT, dovrà rispettare requisiti di trasparenza, rivelando l'origine artificiale del contenuto e prevenendo la generazione di contenuti illegali.

LEGGI ANCHE: Google presenta Gemini, il modello di Intelligenza Artificiale più potente

Tags:
intelligenza artificiale