Intelligenza artificiale disorientata da nuovi hacker

Già allo studio contromisure per sistemi più sicuri

Avere sotto gli occhi l'immagine di una tartaruga ed essere convinti che sia un fucile, oppure interpretare come una tazzina di caffè espresso una palla da baseball stampata in 3D: a vedere una cosa per un'altra è l'intelligenza artificiale, che può essere disorientata molto più facilmente del previsto, diventando in questo modo facile preda di una nuova generazione di hacker. A lanciare l'allarme, riferisce la rivista Science sul suo sito, è la conferenza internazionale sull'apprendimento automatico, Icml (International Conference on Machine Learning).

E' emerso, ad esempio, che è sufficiente alterare leggermente un'immagine, un oggetto o un suono per prendersi gioco del più sofisticato dei sistemi di intelligenza artificiale, fino a disorientarlo. I rischi per la sicurezza non sono difficili da immaginare, considerando che ai sistemi di apprendimento automatico cominciano a essere affidati compiti delicati, che prevedono un'interazione diretta con l'uomo, come guidare un'auto autonoma.

Fra i primi gruppi di ricerca che si sono attivati per mettere a punto delle contromisure c'è quello del Massachusetts Institute of Technology (Mit) coordinato da Anish Athalye. "Abbiamo bisogno di ripensare completamente la nostra concezione di apprendimento automatico per renderlo più sicuro", ha rilevato, Aleksander Madry, del Mit.

Gli attacchi sono certamente una minaccia, ma costituscono anche un campanello d'allarme prezioso per i ricercatori perché possono rivelare nuovi meccanismi d'azione delle reti neurali. Gli attacchi possono essere considerati "una lente d'ingrandimento attraverso la quale capire che cosa sappiamo dell'apprendimento automatico", ha detto Dawn Song, dell'Università della California a Berkeley.
   

RIPRODUZIONE RISERVATA © Copyright ANSA

Video ANSA