Google indossa il camice bianco: creato un bot affidabile come un medico vero
Il colosso informatico sta sviluppando un nuovo tool di intelligenza artificiale specializzato in ambito clinico. I primi test sono promettenti
Grazie a Google l'intelligenza artificiale sbarca in medicina: nuovi tool affidabili come i medici veri
Google, il motore di ricerca più utilizzato al mondo, sta testando la capacità del suo nuovo tool di intelligenza artificiale specializzato in ambito medico e clinico. Secondo uno studio, pubblicato in un articolo su Nature, Med-PaLM, un modello linguistico di grandi dimensioni - Large Language Models (LLM) -, potrebbe presto diventare un valido supporto per il medico e per i professionisti sanitari.
A dirlo sono i ricercatori della Google Research che hanno appena diffuso i risultati di un nuovo test, in cui è emerso che un bot sbaglia quanto un medico vero. Med-PaLM nasce dall'ottimizzazione di PaLM e della sua variante Flan-PaLM. Dai risultati si evince che un gruppo di medici ha giudicato solo il 61,9% delle risposte in formato lungo Flan-PaLM scientificamente valide, rispetto al 92,6% delle risposte Med-PaLM, alla pari con le risposte generate dai medici (92,9%). Allo stesso modo, il 29,7% delle risposte Flan-PaLM è stato valutato come potenzialmente in grado di portare a esiti dannosi, in contrasto con il 5,8% per Med-PaLM, paragonabile alle risposte generate dal medico (6,5%).
Leggi anche: Google lancia Bard contro ChatGPT: sfida sull'intelligenza artificiale
I modelli di intelligenza artificiale (AI) hanno grandi potenzialità di utilizzo in medicina, come l'archivio e il recupero delle conoscenze e il supporto alle decisioni cliniche. Ma c'è anche il rischio della disinformazione medica. Purtroppo, i modelli esistenti hanno evidenziato ancora diversi limiti, per questo numerosi test sono necessari per lo sviluppo di tali strumenti nella pratica clinica. Alcuni studi hanno fatto emergere il rischio potenziale di questi tool di IA specializzata di generare disinformazione medica o aumentare pregiudizi che potrebbero esacerbare le disparità di salute. Spesso però, queste valutazioni si basano su stime automatizzate e su indagini limitate, come i punteggi sui singoli test medici, che potrebbero non tradursi in affidabilità o valore nel mondo reale.
Per valutare quanto gli LLM siano in grado di codificare la conoscenza clinica, il team di ricercatori di Google Research ha analizzato la capacità di questi modelli di rispondere a domande mediche. Il test, chiamato MultiMedQA, combina sei set di dati di risposta a domande esistenti che coprono medicina professionale, ricerche e domande dei consumatori, e HealthSearchQA, un nuovo set di dati di 3.173 domande mediche comunemente cercate online.