Se il robot conquista il senso del tatto

Un team di ricerca a Singapore utilizza il computing neuromorfico di Intel per sviluppare robot capaci di “sentire” attraverso una pelle artificiale

di Alessio Jacona*

Per comprendere la realtà bisogna innanzitutto percepirla: mentre gli esseri umani hanno cinque sensi su cui contare per interagire con il mondo e stratificare esperienza, robot e intelligenze artificiali di solito sono molto più limitati, riuscendo al massimo a “vedere” le limitate porzioni di realtà in cui operano tramite telecamere e tecnologie di computer vision.

Tutto questo però potrebbe presto cambiare: due ricercatori della National University of Singapore (NUS), membri della Intel Neuromorphic Research Community (INRC), hanno infatti presentato nuovi studi dimostrando di poter aumentare notevolmente l’efficienza dei robot dotandoli di senso del tatto. Un piccolo miracolo, reso possibile dall’utilizzo di una pelle artificiale da loro recentemente sviluppata in combinazione con telecamere e sistemi di calcolo neuromorfico basati sui chip Loihi sviluppati da Intel, la cui struttura è ispirata a quella dei neuroni nel cervello umano.

Il risultato è un robot in grado di percepire stimoli tattili con una velocità più di 1.000 volte superiore rispetto al sistema nervoso umano, e di identificare la forma, consistenza e durezza di un oggetto 10 volte più rapidamente di un battito di ciglia. I vantaggi derivanti da tali abilità acquisite sono immediatamente evidenti: se ad esempio un braccio robotico dotato di pelle artificiale riesce a sentire ciò che manipola, allora può adattarsi con facilità ai diversi oggetti prodotti in fabbrica, utilizzando il tatto per identificare e afferrare oggetti non familiari con la giusta pressione. La capacità di sentire e percepire meglio l’ambiente circostante potrebbe poi consentire un’interazione più ravvicinata e sicura tra robot e persone, oppure potrebbe rappresentare un significativo passo in avanti per l'automatizzazione delle operazioni chirurgiche.

Fondamentale per la riuscita delle sperimentazioni è stata l’adozione della tecnologia neuromorfica di Intel, che come detto si ispira al funzionamento dei neuroni del cervello per elaborare i dati provenienti dai sensori della pelle artificiale: «Realizzare un sensore ultrarapido per la pelle artificiale significa risolvere circa metà del problema di rendere più intelligenti i robot», spiega infatti il professor Harold Soh del Dipartimento di Informatica della NUS School of Computing. «Per completare il puzzle, serve anche un cervello artificiale in grado di percepire e imparare».

Combinando questi due elementi, il team della NUS ha utilizzato una mano robotica dotata di pelle artificiale per leggere il Braille, passando i dati di percezione tattile a Loihi attraverso il cloud in modo da convertire i microrilievi percepiti dalla mano in un significato semantico. In questa configurazione, Loihi ha raggiunto un'accuratezza superiore al 92 per cento nel classificare le lettere Braille, utilizzando al contempo 20 volte meno energia rispetto a un processore standard.

La fase successiva della sperimentazione è consistita nel migliorare ulteriormente la capacità di percezione robotica combinando nella rete neurale i dati visivi e quelli tattili. Per fare ciò, i ricercatori di Hong Kong hanno incaricato un robot di classificare vari contenitori opachi contenenti diverse quantità di liquido, utilizzando input sensoriali dalla pelle artificiale e immagini da una telecamera. Allo stesso modo, il team ha testato anche la capacità del sistema di percepire e identificare lo slittamento rotazionale, importante ad esempio per una presa stabile.

Una volta acquisiti questi dati sensoriali, i ricercatori li hanno dati in pasto a una GPU e al chip di ricerca neuromorfica Loihi per confrontare le capacità di elaborazione. I risultati della ricerca, presentati questa settimana a Robotics: Science and Systems, dimostrano che la combinazione di visione e tatto basati su eventi utilizzando una rete neurale spiking ha consentito una precisione migliore del 10% nella classificazione degli oggetti rispetto a un sistema basato sulla sola visione.

Inoltre, hanno dimostrato la potenzialità della tecnologia neuromorfica di essere utilizzata per tali dispositivi robotici, grazie a Loihi che è in grado di elaborare i dati sensoriali il 21% più rapidamente rispetto alle più potenti GPU, utilizzando 45 volte meno energia.

«Siamo entusiasti di questi risultati. Mostrano che un sistema neuromorfico è un componente valido nella combinazione di molteplici sensori per migliorare la percezione dei robot - conclude il professor Soh - È un passo verso la costruzione di robot robusti ed efficienti dal punto di vista energetico, in grado di rispondere rapidamente e appropriatamente a situazioni impreviste».

 

*Giornalista, esperto di innovazione e curatore dell’Osservatorio Intelligenza Artificiale ANSA.it

RIPRODUZIONE RISERVATA © Copyright ANSA