Le pmi possono evitare le decisioni 'inique' degli algoritmi

Dal Cefriel e ZenaByte uno strumento ad hoc cofinanziato dall'Ue

Redazione ANSA MILANO
(ANSA) - MILANO, 09 APR - Aiutare le piccole e medie imprese a schivare decisioni inique prese dall'intelligenza artificiale. Già, perché "gli algoritmi non sempre sono equi o rispettosi dei diritti fondamentali della persona". A spiegarlo è il Cefriel, centro di innovazione digitale fondato dal Politecnico di Milano, che insieme a ZenaByte, spin-off dell'Università di Genova, ha sviluppato uno strumento, cofinanziato dalla Commissione Europea, per misurare il grado di "equità ed etica" di una soluzione di intelligenza artificiale e fornire la miglior soluzione disponibile sul mercato. "Succede infatti - viene spiegato in una nota - che non viene concesso credito alle donne, pur avendo lo stesso profilo di rischio degli uomini, semplicemente perché si pensa nelle aziende informatiche lavori meno personale femminile, oppure, che gli algoritmi di riconoscimento facciale utilizzati dalle forze dell'ordine statunitensi riconoscano male gli individui di pelle scura finendo per danneggiare gli afroamericani". Per evitare e limitare questi problemi è nato questo nuovo software, che si chiama Amnesia ('Assessment of fairness of NGI AI-based future interactive technologies') e si rivolge alle piccole e medie aziende, prive di particolari competenze di intelligenza artificiale. Queste aziende infatti solitamente sviluppano le proprie soluzioni basate sull'AI sfruttando le più comuni suite automatiche, quali Google Cloud AutoML, Amazon SageMaker Autopilot, e Microsoft Azure AutoML. "Nella maggior parte dei casi - continua la nota - l'iniquità si annida nei dati utilizzati per addestrare i modelli di AI dovuti a una rappresentazione non adeguata di specifiche comunità di una popolazione, o a errate interpretazioni di alcune caratteristiche fisiche come nel caso del riconoscimento facciale". (ANSA).
RIPRODUZIONE RISERVATA © Copyright ANSA

Leggi anche: