01. Rubriche

Perché l’IA deve essere trasparente e spiegabile

La professoressa Fosca Giannotti, direttrice del Pisa KDD Lab, spiega cosa serve per creare un’IA che non sostituisca l’essere umano, ma ne aumenti le capacità

La Scuola Normale di Pisa

Redazione Ansa

di Alessio Jacona*

«L'utente di un sistema automatico creato per il supporto alle decisioni, deve essere messo in condizioni di comprendere a fondo i suggerimenti che riceve». A parlare è Fosca Giannotti, tra gli scienziati pionieri del mobility data mining, della social network analysis e del privacy-preserving data mining (l’insieme di tecniche con cui estrarre informazioni dai dati tutelando la privacy): «Insomma, l’intelligenza artificiale non deve dare solo una risposta alle nostre domande - continua la professoressa - ma deve anche spiegare come tale risposta è stata generata, e perché».

Fosca Giannotti è titolare della cattedra di Informatica alla Scuola Normale di Pisa (istituita per la prima volta nel 2021 e subito affidata a lei) e direttrice del Pisa KDD Lab - Knowledge Discovery and Data Mining Laboratory, un'iniziativa di ricerca congiunta dell'Università di Pisa e dell'ISTI-CNR, fondata nel 1994 come uno dei primi laboratori di ricerca sul data mining.

Trasparenza e spiegabilità dell’intelligenza artificiale sono centrali per il suo lavoro; specie da quando, nel 2019, lo European Research Council (ERC) le ha assegnato un finanziamento da 2,5 milioni di euro in 5 anni per sostenere il progetto di ricerca intitolato "Scienza e tecnologia per la spiegazione del processo decisionale dell'IA". 

«Il tema della spiegabilità emerge quando si mettono insieme gli esseri umani e i sistemi di apprendimento automatico a supporto delle loro decisioni - spiega Giannotti - perché quando ciò accade, si generano due possibili scenari: prendere per buono tutto ciò che l’AI dice, come fosse un oracolo, oppure NON fidarsi affatto, contestandone il responso». Due reazioni estreme, inconciliabili e ugualmente sbagliate, che possono essere superate «solo se troviamo il modo di spiegare perché e come il sistema raggiunge le sue decisioni».

L’esempio che la professoressa fa a riguardo è quello dei software utilizzati per la valutazione del rischio nella concessione del mutuo: quando quest’ultimo viene rifiutato dal sistema, un semplice no non solo può danneggiare il richiedente, ma non gli offre la possibilità di cambiare le cose indicando cosa non va, cosa dovrebbe e forse può ancora essere cambiato. Più o meno la stessa cosa vale anche per i software basati su IA che vengono usati per valutare i curricula dei canditati a un posto di lavoro, ma gli esempi sono tanti.

Non solo: la mancanza di trasparenza è un problema anche e soprattutto perché i sistemi automatici possono prendere decisioni ingiuste o sbagliate in quanto influenzati da “bias”, da pregiudizi su razza, sesso, religione etc. assorbiti attraverso le enormi quantità di dati con cui vengono addestrati. Dati che - non va dimenticato - produciamo noi esseri umani, e che quindi inevitabilmente rispecchiano la nostra società con le sue contraddizioni e (appunto) pregiudizi. «La trasparenza ci consente di difenderci se si rende necessario, ed è per questo che il tema rientra anche nel GDPR», ricorda Giannotti.

E poi, ancora, un sistema trasparente consente di individuare e correggere gli errori meglio e più velocemente: «Qui torna utile l’esempio del sistema di IA per la diagnosi delle malattie polmonari - racconta Fosca Giannotti - Estremamente preciso, si era rivelato efficace soprattutto nel predire quali casi fossero a più alto rischio di mortalità, finché non si è compreso che esso basava le sue previsioni non sui dati medici, ma sul fatto che i dottori avessero usato o meno una apparecchio per i raggi X portatile, di solito utilizzato per i pazienti più gravi e impossibili da spostare». Una scorciatoia insomma, che poco ha a che fare con la scienza medica. Per non parlare del fatto che, sempre a proposito di collaborazione tra medici e IA, «se quest’ultima è in grado di supportare il medico nell’individuare un tumore, ma non sa spiegare come ci riesce, non contribuisce a comprendere le cause della malattia». Insomma, la sfida riuscire ad aprire la “black box”, quella scatola nera che oggi sono gli algoritmi in cui entrano dati e da cui escono risposte, per raccogliere informazioni preziose da restituire all'utente: «La macchina deve capire il linguaggio dell’umano che chiede spiegazioni e rispondere alle domande in maniera umanamente comprensibile. È l’unico modo per superare l’incertezza - conclude Fosca Giannotti - e per creare un’IA che non sostituisca l’essere umano, ma ne aumenti le capacità».

 

*Giornalista, esperto di innovazione e curatore dell’Osservatorio Intelligenza Artificiale

Leggi l'articolo completo su ANSA.it