Un'app basata sull'intelligenza
artificiale è risultata più brava dei medici di base 'in carne e
ossa' nel fare diagnosi basate sulle risposte dei pazienti. Ad
affermarlo è Babylon, la start up britannica che l'ha
sviluppata, che ha già però registrato, riporta il sito della
Bbc, lo scetticismo dei 'general practitioner' britannici.
L'algoritmo, che ha la forma di un chatbot, un software che
simula una conversazione, una volta fatta una serie di domande
al paziente formula una o più diagnosi con una percentuale di
probabilità. Per testarlo la Babylon lo ha sottoposto all'esame
che il Royal College of General Practitioners, l'equivalente del
nostro ordine dei medici, richiede per l'iscrizione, e il
risultato è stato un punteggio dell'81%, superiore alla media
del 72% dei medici 'umani'. In un altro test è stato chiesto
alla AI e a 7 diversi medici esperti di fare una diagnosi per
ognuno di 100 set di sintomi, e l'accuratezza di Babylon è
risultata dell'80%, mentre i medici hanno totalizzato dal 64% al
94%. Il risultato è stato presentato ad un congresso, e ha
subito provocato la risposta dell'ordine. "Una app può riuscire
a superare un test di conoscenze cliniche, ma non riuscirà mai a
fare quello che fa un medico - ha affermato il Royal College of
General Practitioners in un comunicato -. La risposta a uno
scenario clinico non è sempre netta".
All'obiezione ha risposto il Ceo di Babylon, Ali Parsa.
"siamo pienamente coscienti del fatto che un'intelligenza
artificiale non può esaminare un paziente da sola - afferma -.
Ecco perchè per noi è una 'spalla' del medico, non potrà mai
sostituirlo ma solo aiutarlo".
Riproduzione riservata © Copyright ANSA