Rubriche

2019 anno dell'intelligenza artificiale, ecco i rischi

Da incidenti auto autonome a video fake e influenza su elezioni

2019 anno dell'intelligenza artificiale, ecco i rischi

Redazione Ansa

Un futuro in cui le intelligenze artificiali (AI) prendono il sopravvento sull'uomo è ancora lontano, ma la loro sempre maggior diffusione in questi ultimi anni le rendono comunque pericolose, soprattutto per l'uso che se ne può fare. A mettere in fila i sei rischi principali è stata la rivista del Mit, che richiama a un maggior controllo sulle applicazioni e nuove tecnologie."Le ultime applicazioni dell'AI sono eccellenti in compiti 'percettivi' come classificare immagini e trascrivere discorsi - si legge sulla rivista -, ma il battage dovuto a queste nuove capacità ci hanno fatto dimenticare quanto siamo lontani dal costruire macchine intelligenti quanto noi".

I rischi paventati dagli esperti derivano da problemi già visti nel 2018, che potrebbero ripetersi in misura maggiore. Il primo pericolo citato riguarda proprio le auto autonome, con un prototipo che già nel 2018 ha causato un incidente mortale, problema che potrebbe ripetersi dato il boom di sperimentazioni in corso. Un altro rischio è che le intelligenze artificiali influenzino il risultato di elezioni politiche nel mondo attraverso i bot, algoritmi addestrati a 'usare' i social.

Questo potrebbe avvenire in paesi con scadenze elettorali quest'anno come la Nigeria, ma può succedere anche negli Usa. "La lunga corsa verso le presidenziali del 2020 è già iniziata - spiegano gli esperti del Mit -, e potrebbe ispirare nuovi tipi di tecnologie per la disinformazione". Altro settore molto delicato da tenere d'occhio nel 2019 è quello del riconoscimento facciale, già usato da diverse polizie, che può portare a grandi violazioni della privacy.

Quest'anno si tornerà sicuramente poi a parlare delle armi autonome, di cui l'Onu dovrebbe varare un bando ufficiale ma su cui la ricerca è molto attiva, nonostante sia sorto un movimento di lavoratori del settore contrario alle applicazioni belliche.

Da tenere in considerazione sono anche i cosiddetti 'deep fake', video fasulli, spesso pornografici, creati con l'intelligenza artificiale, talmente perfetti da sembrare veri, che potrebbero coinvolgere personaggi famosi. "Quest'anno saranno varati programmi in grado di riconoscerli - spiegano gli esperti -, ma essendo basati anche loro sull'intelligenza artificiale sarà un po' un gioco del gatto col topo". Attenzione infine alle discriminazioni di razza e genere intrinseche negli algoritmi, che è emersa da diversi studi, e che può creare problemi ad esempio se l'AI si usa per le selezioni per un posto di lavoro.
   

Leggi l'articolo completo su ANSA.it