"Dottor Google" potrà in futuro
aiutare i camici bianchi nei colloqui con i pazienti, ad esempio
quelli preliminari all'apertura di una cartella clinica o a fare
una diagnosi sulla base di quanto riferito dal paziente: è la
prospettiva che si individua in un lavoro realizzato da un team
di ricercatori di intelligenza artificiale di Google Research e
Google DeepMind, che ha sviluppato il prototipo di un sistema di
dialogo diagnostico basato sull'intelligenza artificiale per
condurre colloqui "medico-paziente". Il nuovo sistema si chiama
Articulate Medical Intelligence Explorer, o Amie. Quando un
medico parla con un paziente all'inizio di una visita per
mettere a fuoco il problema, fa una serie di domande che
comprendono i sintomi riferiti dal paziente, la storia clinica e
la familiarità per malattie di vario genere. In genere questa
parte della visita richiede del tempo e anche un certo grado di
sforzo empatico da parte del medico, nonché di comprensione
globale dello stato di salute del paziente. Il team di Google ha
notato che molti programmi di intelligenza artificiali basati su
modelli di linguaggio, come ChatGPT, spesso appaiono piuttosto
empatici e desiderosi di aiutare, cosa che può aiutare
l'interlocutore, ad esempio un paziente, a relazionarsi. Per
questo gli scienziati di Google hanno pensato a un sistema di
dialogo diagnostico da usare nel mondo reale, affiancandolo al
lavoro dei medici. Gli esperti hanno utilizzato un approccio
innovativo per insegnare al sistema come approcciarsi e chiedere
informazioni mediche al paziente. Inizialmente, l'hanno
addestrato sulla limitata quantità di dati pubblicamente
disponibili su colloqui medico-paziente. Poi hanno fatto sì che
il sistema si auto-addestrasse da solo incitandolo a recitare la
parte di una persona con una malattia specifica. Amie ha poi
intervistato 20 volontari che fingevano di essere pazienti. I
risultati sono stati valutati da professionisti medici per
determinare l'accuratezza.
Riproduzione riservata © Copyright ANSA