MediaTech
Intelligenza artificiale, approvato AiAct: nuove regole per ChatGpt e privacy
L'Europa approva il nuovo regolamento per l'Intelligenza artificiale, tra polizia predittiva, riconoscimento facciale e chat bot
Gli eurodeputati vogliono anche vietare i sistemi di polizia predittiva (basati su profilazione, posizione o comportamento criminale passato); i sistemi di riconoscimento delle emozioni nelle forze dell'ordine, nella gestione delle frontiere, sul posto di lavoro e nelle istituzioni educative; la raccolta non mirata di immagini facciali da Internet o filmati Cctv (a circuito chiuso) per creare database di riconoscimento facciale, violando i diritti umani e il diritto alla privacy).
La classificazione delle applicazioni ad alto rischio includerà ora i sistemi di intelligenza artificiale che arrecano "danni significativi" alla salute, alla sicurezza, ai diritti fondamentali o all'ambiente delle persone. I sistemi di intelligenza artificiale utilizzati per influenzare gli elettori e l'esito delle elezioni e nei sistemi di raccomandazione utilizzati dalle piattaforme di social media (con oltre 45 milioni di utenti) sono stati aggiunti all'elenco ad alto rischio.
LEGGI ANCHE: Cairo: "Io interessato a Mfe? Fanta-televisione. L'azienda non è contendibile"
I fornitori di modelli di base (uno sviluppo nuovo e in rapida evoluzione nel campo dell'IA) dovrebbero valutare e mitigare i possibili rischi (per la salute, la sicurezza, i diritti fondamentali, l'ambiente, la democrazia e lo stato di diritto) e registrare i propri modelli nella banca dati dell'Ue prima di immetterli sul mercato. I sistemi di intelligenza artificiale generativa basati su questi modelli, come ChatGpt, dovrebbero rispettare requisiti di trasparenza (devono rivelare che il contenuto è stato generato dall'intelligenza artificiale, aiutando anche a distinguere le cosiddette immagini deep-fake da quelle reali) e garantire salvaguardie contro la generazione di contenuti illegali.