L'algoritmo (quasi) onnipotente e il fattore umano

Gestiscono, mediano, decidono e aiutano a decidere anche come combattere le pandemie, ma le IA non sono infallibili. Hanno ancora bisogno di noi

di Giovanni Boccia Artieri*

La nostra vita è interessata sempre più spesso da processi in cui intervengono algoritmi che diventano centrali nei settori sia privati sia pubblici. Le decisioni fondamentali per il nostro benessere e le nostre libertà sono infatti spesso supportate o prese utilizzando algoritmi che evolvono con i dati, i cosiddetti machine learning alghoritms (algoritmi ad apprendimento automatico) che applicano modelli statistici complessi al fine di fornire a un utente le informazioni che per lui sono più “pertinenti” e “rilevanti”.

Sono intermediari nella distribuzione di pubblicità sulle piattaforme di social media, nei motori di ricerca e nei siti di news; sono utilizzati per arrivare a decisioni vitali per le persone, regolando l’accesso al credito, al lavoro, all’alloggio, all’istruzione o alla giustizia. Non sono quindi solo oggetti divenuti più familiari – anche se in modo astratto – nel dibattito pubblico ma intercettano concretamente i nostri modi di informarci, scegliere, comprare, comunicare, ecc., indipendentemente dal nostro livello di consapevolezza del fatto di incontrarli in molti dei nostri gesti quotidiani. Così come restano oggetti opachi in merito ai valori che li guidano e alle politiche che danno loro forma: in che modo un algoritmo decide se siamo affidabili per ottenere un mutuo? Allo stesso modo, il livello di responsabilità nei confronti degli utenti è occultato dietro all’idea che siano degli “intermediari neutri”, utili per ottenere soluzioni efficienti ai problemi di organizzazione dell’informazione che accompagnano il complessificarsi della società.

Recentemente si sta però diffondendo una consapevolezza, accompagnata da un senso di inquietudine, dell’essere governati da sistemi che non si comprendono e che si sente di non poter controllare. D’altra parte, la speranza di riacquisire controllo di questi sistemi è delusa dalla loro segretezza, dalla loro ubiquità, dalla loro opacità e dalla mancanza di mezzi per contrastarli quando producono risultati inaspettati, dannosi, ingiusti o discriminatori. Ad esempio, è stato dimostrato come esistano “bias” (pregiudizi) negli algoritmi di ricerca che marginalizzano in modo sproporzionato quelle comunità che sono definite da minoranze, da donne e dai più poveri.

In pratica molti studi evidenziano come gli algoritmi non siano oggetti che operano in modo “naturale”, ma vadano visti come vere e proprie opinioni incorporate nel codice, capaci di determinare una distinzione tra i vincenti e i perdenti della società, tra chi ottiene lavoro e credito e chi paga di più un’assicurazione sanitaria. Sono vere e proprie “scatole nere” del sistema che celano dinamiche di potere e che possono riprodurre diseguaglianze o confermare l’ordine sociale per come è. Pensare che gli algoritmi siano “la soluzione” è un approccio di tipo riduzionista e deresponsabilizzante che non possiamo permetterci. In particolare in questo periodo, in cui ci affidiamo alla soluzione algoritmica per contrastare il Covid-19.

Come evidenzia un’analisi dell’IZA – Institute of Labor Economics, ci sono sei aree di intervento degli algoritmi di Intelligenza Artificiale in relazione alla pandemia: avvisi e allarmi precoci, monitoraggio e previsione, dashboard dei dati, diagnosi e prognosi, trattamenti e cure, e controllo sociale. Nel complesso il problema principale è rappresentato, da una parte, dalla mancanza di dati, poiché non esiste al momento una serie storica sufficiente per istruire l’IA e serviranno dati aperti e condivisi per aumentare in modo significativo la quantità di dati; dall’altra, ci troviamo di fronte a un problema di qualità dei dati, cioè la presenza di troppi dati anomali e da “rumori di fondo” che rischiano di inficiare la predittività. Basti ricordare il fallimento dei ricercatori di Google nel prevedere la diffusione dell’influenza usando le ricerche delle persone: il progetto Google Flu Trends, prima di essere abbandonato, ha sovrastimato la prevalenza dell’influenza in due stagioni di oltre il 50% .

Per superare questi vincoli occorrerà trovare un equilibrio tra privacy relativa ai dati e salute pubblica. Privacy e salute non costituiscono due poli opposti lungo un continuum per cui per salvaguardare un polo (la salute) occorre rinunciare alla salvaguardia dell’altro (la privacy). L’utilizzo di dati e algoritmi deve quindi essere responsabile, rispettare le norme sulla protezione delle informazioni e sulla privacy. Il rischio è quello di minare la fiducia del pubblico. Il controllo digitale dell’epidemia in Cina, come evidenzia Christos Lynteris, un antropologo ed esperto di epidemie, ha ad esempio sviluppato forme di stigmatizzazione pubblica e accresciuto un senso di sfiducia. Il rischio di sfiducia è poi maggiore in quei paesi in cui i cittadini hanno un livello di fiducia basso nel proprio governo.

Occorre, infine, considerare che l’agire degli algoritmi deve essere mediato dall’agire umano. Le app di tracciamento dei contatti “funzionano” nel momento in cui ci sia un intervento sanitario e di presa in carico immediato ed efficace, capace di relazionarsi con i possibili contagiati nelle forme di cura non solo medica ma informativa e comunicativa.

Il cuore del contagio epidemico ha una natura sociale e quindi non può essere affrontato con una soluzione algoritmica che è di stampo tecnocratico. Gli effetti del suo essere “scatola nera” si scontrano con i comportamenti sociali delle persone e le politiche sanitarie ed è la relazione fra questi diversi elementi che deve trovare una sua sintonia. In questa sintonia sta la differenza tra sorveglianza e cura di una comunità.

*Docente di Sociologia dei media digitali, Università di Urbino Carlo Bo. (In collaborazione con il Ministro per l'innovazione tecnologica e la digitalizzazione)

RIPRODUZIONE RISERVATA © Copyright ANSA