Se hai scelto di non accettare i cookie di profilazione e tracciamento, puoi aderire all’abbonamento "Consentless" a un costo molto accessibile, oppure scegliere un altro abbonamento per accedere ad ANSA.it.

Ti invitiamo a leggere le Condizioni Generali di Servizio, la Cookie Policy e l'Informativa Privacy.

Puoi leggere tutti i titoli di ANSA.it
e 10 contenuti ogni 30 giorni
a €16,99/anno

  • Servizio equivalente a quello accessibile prestando il consenso ai cookie di profilazione pubblicitaria e tracciamento
  • Durata annuale (senza rinnovo automatico)
  • Un pop-up ti avvertirà che hai raggiunto i contenuti consentiti in 30 giorni (potrai continuare a vedere tutti i titoli del sito, ma per aprire altri contenuti dovrai attendere il successivo periodo di 30 giorni)
  • Pubblicità presente ma non profilata o gestibile mediante il pannello delle preferenze
  • Iscrizione alle Newsletter tematiche curate dalle redazioni ANSA.


Per accedere senza limiti a tutti i contenuti di ANSA.it

Scegli il piano di abbonamento più adatto alle tue esigenze.

Le pmi possono evitare le decisioni 'inique' degli algoritmi

Dal Cefriel e ZenaByte uno strumento ad hoc cofinanziato dall'Ue

Redazione ANSA MILANO
(ANSA) - MILANO, 09 APR - Aiutare le piccole e medie imprese a schivare decisioni inique prese dall'intelligenza artificiale. Già, perché "gli algoritmi non sempre sono equi o rispettosi dei diritti fondamentali della persona". A spiegarlo è il Cefriel, centro di innovazione digitale fondato dal Politecnico di Milano, che insieme a ZenaByte, spin-off dell'Università di Genova, ha sviluppato uno strumento, cofinanziato dalla Commissione Europea, per misurare il grado di "equità ed etica" di una soluzione di intelligenza artificiale e fornire la miglior soluzione disponibile sul mercato. "Succede infatti - viene spiegato in una nota - che non viene concesso credito alle donne, pur avendo lo stesso profilo di rischio degli uomini, semplicemente perché si pensa nelle aziende informatiche lavori meno personale femminile, oppure, che gli algoritmi di riconoscimento facciale utilizzati dalle forze dell'ordine statunitensi riconoscano male gli individui di pelle scura finendo per danneggiare gli afroamericani". Per evitare e limitare questi problemi è nato questo nuovo software, che si chiama Amnesia ('Assessment of fairness of NGI AI-based future interactive technologies') e si rivolge alle piccole e medie aziende, prive di particolari competenze di intelligenza artificiale. Queste aziende infatti solitamente sviluppano le proprie soluzioni basate sull'AI sfruttando le più comuni suite automatiche, quali Google Cloud AutoML, Amazon SageMaker Autopilot, e Microsoft Azure AutoML. "Nella maggior parte dei casi - continua la nota - l'iniquità si annida nei dati utilizzati per addestrare i modelli di AI dovuti a una rappresentazione non adeguata di specifiche comunità di una popolazione, o a errate interpretazioni di alcune caratteristiche fisiche come nel caso del riconoscimento facciale". (ANSA).
RIPRODUZIONE RISERVATA © Copyright ANSA