Se hai scelto di non accettare i cookie di profilazione e tracciamento, puoi aderire all’abbonamento "Consentless" a un costo molto accessibile, oppure scegliere un altro abbonamento per accedere ad ANSA.it.

Ti invitiamo a leggere le Condizioni Generali di Servizio, la Cookie Policy e l'Informativa Privacy.

Puoi leggere tutti i titoli di ANSA.it
e 10 contenuti ogni 30 giorni
a €16,99/anno

  • Servizio equivalente a quello accessibile prestando il consenso ai cookie di profilazione pubblicitaria e tracciamento
  • Durata annuale (senza rinnovo automatico)
  • Un pop-up ti avvertirà che hai raggiunto i contenuti consentiti in 30 giorni (potrai continuare a vedere tutti i titoli del sito, ma per aprire altri contenuti dovrai attendere il successivo periodo di 30 giorni)
  • Pubblicità presente ma non profilata o gestibile mediante il pannello delle preferenze
  • Iscrizione alle Newsletter tematiche curate dalle redazioni ANSA.


Per accedere senza limiti a tutti i contenuti di ANSA.it

Scegli il piano di abbonamento più adatto alle tue esigenze.

Software&App
  1. ANSA.it
  2. Tecnologia
  3. Software & App
  4. Usa, nuovo no a riconoscimento facciale

Usa, nuovo no a riconoscimento facciale

Oakland bandisce la tecnologia, rischio di discriminazioni

Le tecniche di riconoscimento facciale sono sempre più diffuse, ma per alcuni sono pericolose "come la bomba atomica". L'opposizione alla loro adozione da parte delle autorità sta crescendo soprattutto negli Stati Uniti, dove sono arrivate a tre le città che le hanno messe al bando e un'organizzazione no profit ne ha chiesto il bando totale nel Paese. Dopo San Francisco e Somerville, la terza città a decidere lo stop è stata Oakland, in California: ha bandito ufficialmente la tecnologia, che non potrà più essere utilizzata dalle autorità.

Alla base della decisione c'è soprattutto la preoccupazione per il rischio di discriminazioni. "Una ricerca ha concluso che il software è meno accurato per le donne e le persone con la pelle scura, e particolarmente inaccurato per le donne di colore", - ha rilevato il sindaco di Oakland. Poiché questa tecnologia riconosce i volti in video o foto, confrontandoli in tempo reale con quelle contenuti nelle banche dati, in molte città americane è largamente utilizzata dalla polizia o negli aeroporti. Ciò fa crescere la preoccupazione, tanto che la American Civil Liberties Union, insieme a 70 organizzazioni, ha chiesto alle aziende non vendere più la tecnologia al governo. Per Luke Stark, dell'università di Harvard, il riconoscimento facciale è "il plutonio dell'intelligenza artificiale: queste tecnologie - ha rilevato - hanno delle falle insormontabili dovute al modo in cui schematizzano i volti, rinforzando categorizzazioni negative su razza e genere, con effetti sociali tossici. Proprio questi problemi di base fanno sì che i rischi superino enormemente i benefici, in un modo che ricorda il nucleare".

Le preoccupazione è lecita, commenta il direttore dell'Istituto di Informatica e Telematica del Consiglio nazionale delle Ricerche (Cnr), Domenico Laforenza, ma la demonizzazione deve essere evitata. "Il principio generale è che la tecnologia non è mai neutra: dipende dall'uso che se ne fa. Questo vale sempre, che si tratti di intelligenza artificiale o di riconoscimento facciale, che ne è una delle applicazioni. Demonizzare un approccio è stupido, se si pensa che la stessa tecnologia può essere d'aiuto per trovare i tumori o per aiutare i medici a fare una diagnosi. Deve essere sotto controllo, regolata per evitare usi distorti".

Il riconoscimento facciale può essere d'aiuto anche per le forze dell'ordine. "L'importante è sapere che fine fanno i dati e che ci sia un responsabile che eviti che vengano venduti a terzi o usati per altri scopi". Anche il rischio di discriminazioni è reale. "C'è questa possibilità ma non dipende dagli algoritmi, è un problema legato ai dati con cui vengono 'istruiti'. Se questi contengono pregiudizi e stereotipi si rifletteranno poi nei risultati. Si pensi all'effetto in un'applicazione che prevede in quali aree è più probabile che avvenga un delitto".
   

      RIPRODUZIONE RISERVATA © Copyright ANSA

      Video ANSA



      Modifica consenso Cookie