MediaTech
"L'intelligenza artificiale come una guerra nucleare. Umanità a rischio"
L’allarme clamoroso di 350 esperti tra cui l'ad di OpenAI, Sam Altman, e il fisico italiano Roberto Battiston
L'intelligenza artificiale come una guerra nucleare. Umanità a rischio
Oltre 350 esperti, professori e alti esponenti del settore tecnologico hanno lanciato l'allarme sull'Intelligenza artificiale, avvertendo del "rischio estinzione" per l'umanità che comporta ed esortando i politici a equiparare la minaccia a quelle di pandemie e guerra nucleare. "Mitigare il rischio di estinzione derivante dall'intelligenza artificiale dovrebbe essere una priorità globale insieme ad altri rischi su scala sociale come le pandemie e la guerra nucleare", hanno sottolineato in una lettera pubblicata dal Center for AI Safety (Cais). Tra i firmatari, Sam Altman, amministratore delegato di OpenAI, che ha creato ChatGpt, insieme a Geoffrey Hinton e Yoshua Bengio, considerati i 'padrini' dell'IA.
Roberto Battiston: "Servono regole per gestire algoritmi potenti come quelli dell'IA"
Tra i firmatari della lettera c'è anche un italiano, il fisico Roberto Battiston, dell'Università di Trento, che in un'intervista all'Ansa spiega le motivazioni di questa presa di posizione collettiva. "Servono regole per gestire algoritmi potenti come quelli dell'Intelligenza artificiale e per evitare effetti imprevisti: è questo il senso dell'allerta lanciata dal Center for AI Safety". "Questi tipi di algoritmi di AI generativa si sono rivelati molto potenti nell'interfacciare le persone utilizzando i dati presenti sul web e il linguaggio naturale, così potenti che potrebbero generare effetti secondari imprevisti", osserva Battiston.
Leggi anche: Intelligenza artificiale, l'esperto: "Fermiamola o a breve saremo tutti morti"
"Nessuno oggi sa realmente quali potrebbero essere questi effetti, positivi o negativi: servono tempo e sperimentazione - prosegue il fisico - per realizzare regole e norme che permettano di gestire l'efficacia di questa tecnologia proteggendoci dai relativi pericoli. Non si tratta della minaccia di una super intelligenza che possa sopraffare l'umanità, ma delle conseguenze del modo con cui gli esseri umani si abitueranno a utilizzare questi algoritmi nel loro lavoro e nella vita quotidiana della società". Pensiamo ad esempio, aggiunge, "alla possibile interferenza sui processi elettorali, alla diffusione di notizie false, alla creazione di canali di notizie che rispondono a precisi interessi di disinformazione". Per questo, osserva, "occorre prepararsi a gestire queste situazioni, le prime avvisaglie di problemi di questo genere le abbiamo già viste negli anni passati con la vicenda di Cambridge Analytica o con la tattiche di guerriglia dei troll russi sul web".