OpenAI e Google, l'allarme dei dipendenti: "Con l'IA si rischia l'estinzione"

Una lettera aperta di 13 esperti ed ex dipendenti denuncia la scarsa attenzione alla sicurezza e la cultura del segreto nelle grandi aziende del settore dell'IA

di Redazione Economia
Tags:
googleopenai
intelligenza Artificiale
Economia

OpenAI e Google DeepMind, ex dipendenti lanciano l’allarme

Una lettera aperta, firmata da 13 esperti di intelligenza artificiale, inclusi quattro attuali dipendenti di OpenAI e due scienziati di Google DeepMind  (di cui uno ancora in servizio) denuncia la scarsa attenzione alla sicurezza e la cultura della segretezza che caratterizza le grandi aziende del settore. Il documento rivela che proprio OpenAI e Google DeepMind, i due laboratori di ricerca più avanzati al mondo sull’IA, obbligano i dipendenti in uscita a firmare accordi di "non-denigrazione", impedendo loro di parlare negativamente dell'azienda, pena la perdita delle quote azionarie maturate.

Pur riconoscendo che l'IA "può portare benefici senza precedenti all'umanità", i firmatari evidenziano anche rischi significativi che questo settore comporta come il rafforzamento delle disuguaglianze alla manipolazione e disinformazione, fino alla possibilità di perdere il controllo sui sistemi autonomi di IA, con il rischio di estinzione dell'umanità.

LEGGI ANCHE: Bankitalia: IA? Bene investire, ma serve cooperazione per evitare rischi

Infatti nel documento chiamato “A Right to Warn about Advanced Artificial Intelligence”, si legge che “i sistemi di intelligenza artificiale che apprendono in modo autonomo” potrebbero determinare, sfuggendo al controllo umano, “l’estinzione dell’umanità”.

Il New York Times ha rilanciato la notizia, intervistando Daniel Kokotajlo, un ex ricercatore di OpenAI che si è dimesso nel 2022. Kokotajlo ha criticato OpenAI per la sua corsa verso l'IA generativa, prevedendo che questa tecnologia potrebbe arrivare entro il 2027 con una probabilità del 70% di causare danni catastrofici o la distruzione dell'umanità. Ha citato un episodio del 2022 in cui Microsoft testò una nuova versione di Bing, presumibilmente utilizzando GPT-4 senza l'approvazione del board, che non intervenne nonostante comportamenti anomali del sistema.

Kokotajlo ha poi confessato di aver rifiutato di firmare la clausola di "non-denigrazione", rinunciando a 1,7 milioni di dollari in quote maturate. Un altro ex dipendente, William Saunders, ha descritto l'approccio di OpenAI come "lanciamo le cose nel mondo, vediamo cosa succede e poi le aggiustiamo". Jan Leike, che non è tra i firmatari ma ha espresso le sue preoccupazioni su X, ha criticato la cultura aziendale che privilegia il lancio di nuovi prodotti rispetto alla sicurezza.