MediaTech
Open Ai, vince lo sviluppo senza controllo: "L'IA può essere pericolosa"
Il Ceo Altman torna a Open AI: intervista a Nicola Basilico, Professore della Statale di Milano ed esperto di Intelligenza artificiale
Intelligenza artificiale, il docente della Statale di Milano: "Pericolosa per l'uomo? Possibile". E sul terremoto OpenAi-Altman...
Come con l’elettricità, i telefoni e internet, il mondo si trova ora davanti a un nuovo “strumento” capace di rivoluzionare la vita dell’uomo: l’intelligenza artificiale. Questa tecnologia, il cui valore di mercato è stimato in quasi 5 mila miliardi di dollari (oltre due volte il Pil italiano), è diventata in breve tempo un settore chiave su cui le aziende tecnologiche (e non solo) investono enormi cifre di denaro.
Comunque, come si ci poteva aspettare, l’opinione pubblica si è divisa principalmente in due fazioni. C’è chi dice che l’intelligenza artificiale sarà una sorta di Sacro Graal della ricerca, capace di trovare, per esempio, cure a malattie più o meno gravi, ma c’è anche chi sostiene che la situazione potrebbe ribaltarsi, portando danni inimmaginabili alla nostra civiltà.
E rimanendo sulla “linea” catastrofica, tra le notizie che più hanno destato l’interesse dei media c’è il girotondo iniziato con il licenziamento del Ceo Sam Altman, defenestrato da OpenAi proprio per motivi di “sicurezza” legati allo sviluppo fin troppo veloce di questa tecnologia e infine richiamato alla guida della società.
LEGGI ANCHE: ChatGpt, clamoroso ritorno: Sam Altman di nuovo alla guida di OpenAI
Per fare luce sul caso di attualità che ha interessato una delle società più importanti del settore (OpenAi vale circa 80 miliardi di dollari), ma anche sui possibili rischi e benefici che l’IA ci potrà offrire, Affaritaliani.it ha interpellato Nicola Basilico, Professore associato di Informatica presso l’Università Statale di Milano.
Professore, come giustifica la mossa di OpenAi di licenziare di punto in bianco il suo “numero uno” per poi riprenderselo?
“L’obiettivo di OpenAi (co-fondata proprio da Altman) è quello di sviluppare questa nuova tecnologia nel modo più sicuro possibile per l’uomo e, dunque, lentamente, un passo alla volta. Evidentemente, la visione di Altman era invece più incline a una linea “commerciale”, dunque con l’obiettivo di immettere il più velocemente nel mercato i nuovi sviluppi e quindi non più adeguata ai principi dell’azienda”.
E Microsoft si era subito precipitata su Altman per metterlo a capo della propria divisione di intelligenza artificiale…
“Sì, perché in questo modo Microsoft (che possiede circa il 49% di OpenAi) si sarebbe impossessata di tutta la conoscenza del competitor, ma non solo. Nell’interesse del Big Tech verso l’ex Ceo di OpenAi, c’era anche una strategia ben precisa. Se Altman fosse rimasto “a spasso”, e quindi fuori sia da OpenAi che da Microsoft, si sarebbe potuto "inventare" un pericoloso concorrente, capace di far perdere una grande fetta di mercato. Se Altman fosse entrato in Microsoft si sarebbe trattato di un vero e proprio colpaccio per la creatura di Bill Gates”.
Infine, il clamoroso ritorno in OpenAi...
“Questo è sicuramente l'epilogo più ragionevole in questa vicenda. Una potenziale rottura, infatti, sarebbe stata uno svantaggio per entrambe le parti (OpenAI e Microsoft), le quali avrebbero dovuto affrontare rallentamenti nello sviluppo tecnologico durante la fase di transizione e assestamento conseguente. Penso che questa vicenda servirà ad accordare meglio le due correnti: quella più prudente e focalizzata su uno sviluppo cauto della tecnologia e quella più concentrata sulla diffusione e commercializzazione di strumenti basati su essa".
Un altro “pezzo da 90” di OpenAi, il co-fondatore e capo scienziato Ilya Sutskever, ha espressamente detto che l’intelligenza artificiale potrebbe, un giorno, soggiogare l’uomo come noi facciamo con gli animali. Ma quindi l’IA è davvero pericolosa?
“C'è la possibilità, ma ciò di cui parla Sutskever è un'altra cosa, ovvero l’Intelligenza Generale Artificiale (Agi). Per farla breve, l’IA che abbiamo oggi è capace di risolvere un problema attraverso una singola e circoscritta soluzione. L’Agi, invece, sarebbe quel tipo di intelligenza artificiale capace di trovare più soluzioni a un problema, più o meno come fa una persona. ChatGpt, ad esempio, viene considerato da alcuni scienziati come il primo embrione, non ancora sviluppato, di questa tecnologia. Il punto, però, è che a oggi si stima che non nascerà nulla di simile come minimo entro i prossimi 50 anni, forse anche di più. Dunque è un problema che difficilmente ci riguarderà”.
La nostra incolumità non sembra a rischio, per ora. Mentre il lavoro?
“Indubbiamente, il mondo del lavoro cambierà. Credo, però, che l’intelligenza artificiale difficilmente, nel breve-medio termine, possa davvero “rubare” il lavoro alle persone. Penso che, al massimo, possa essere uno strumento utilizzabile dall’uomo proprio come un sostegno in grado di velocizzare di molto diverse mansioni”.
Per concludere, la premier Meloni ha provato a rassicurare gli italiani dicendo che l’intelligenza artificiale “non può eguagliare le nostre eccellenze”
“L’intelligenza artificiale e il Made in Italy fanno parte di due piani totalmente diversi. Le nostre eccellenze vengono espresse soprattutto attraverso la raffinata “mano” dei nostri artigiani. Tanto che, appunto, questa dichiarazione è nata proprio durante l’ultimo congresso di Confartigianato; non ci vedo nessuna correlazione con l’intelligenza artificiale. Temo che difficilmente riusciremo a vedere dei robot calzolai o, per dire, salumieri…”.