Se le emozioni si possono registrare e condividere grazie a IA e VR

Il gruppo di lavoro del bioingegnere Gaetano Valenza (Centro di Ricerca E.Piaggio) sta sviluppando una tecnologia per mappare, registrare e trasferire da una persona all’altra le sensazioni insieme ad audio e video

Redazione ANSA

Di Alessio Jacona*

Non importa quante parole, quanti selfie e quanti video postiamo ogni giorno sui social: ciò che vogliamo rappresentare, il racconto di ciò che facciamo, vediamo e scopriamo resta parziale, perché non possiamo completarlo veicolando anche le nostre reali emozioni, quell’ampio e articolato insieme di sensazioni generate dalla stessa esperienza che vorremmo condividere.

E se invece potessimo? Se oltre alle foto e ai video si potessero postare sui social le nostre sensazioni, per consentire anche ad altri di riviverle? Immaginate di poter sperimentare - grazie ad una realtà virtuale (VR) “aumentata” - un giro sulle montagne russe o una visita al museo assaporando la percezione spazio-temporale (oltre a quella visuale, auditiva e cutanea/tattile) vissuta da un’altra persona.

Oppure ancora meglio: provate a pensare cosa potrebbe significare utilizzare la stessa tecnologia, da un lato, per diagnosticare in maniera oggettiva (cioè come fosse un esame del sangue) qualcosa di inafferrabile come una patologia della mente; dall’altro, per curarla creando ambienti virtuali ad hoc e inducendo sensazioni capaci di contrastare il malessere e ripristinare l’equilibrio, peraltro riducendo o eliminando il ricorso ai medicinali.

Ventisei anni dopo l’uscita del film di fantascienza Strange Days (la cui trama ruota intorno a qualcosa di molto simile), qualcuno in Italia è molto vicino a creare un sistema capace di registrare le nostre emozioni e trasmetterle agli altri grazie all’uso combinato di sensori biomedicali, realtà virtuale e intelligenza artificiale.

Il progetto Europeo, della durata di quattro anni, si chiama EXPERIENCE, acronimo per “EXtended-PErsonal Reality: augmented recording and transmission of virtual senses through artificial- IntelligENCE”, ed è inserito tra le Future and Emerging Technologies di Horizon 2020, relativamente all’uso dell’intelligenza artificiale nell’ambito delle scienze sociali e neuroscienze.

A coordinarlo è il bioingegnere Gaetano Valenza del Centro di Ricerca E.Piaggio e del Dipartimento di Ingegneria dell’Informazione dell’Università di Pisa, in partnership con Università degli Studi di Siena, Università di Padova, Università degli Studi di Roma "Tor Vergata, Università Politecnica di Valencia, Karolinska Institutet, French CEA a Parigi, Centro Svizzero di Microelettronica CSEM e della start-up spagnola Quatechnion.

«Il progetto ha due filoni principali di ricerca, uno tecnologico e l’altro medico scientifico», spiega Valenza. «Il primo è mettere tutti in grado di creare facilmente ambienti di realtà virtuale, rendendo questa tecnologia fruibile non solo come pubblico, ma anche nella veste di creatore di contenuti, per arrivare a condividerla in rete con la stessa semplicità di una foto. Il secondo filone - continua - è la sfida scientifica di riuscire a misurare le emozioni, riuscire a quantificarle e definirle in modo tale da poterle riversare dentro la realtà virtuale creando un’esperienza molto più ricca».

Ed è qui che entra in gioco l’IA?

«Quando di parla di registrazione delle emozioni e della loro trasmissione, o induzione, quell’insieme di algoritmi complessi che chiamiamo intelligenza artificiale ha un peso enorme, innanzitutto perché ci aiuta a gestire una quantità enorme di dati. Questi provengono da molteplici sensori deputati ai compiti più diversi: dal rilevamento dell’elettrocardiogramma alla registrazione del movimento del corpo o degli occhi; dall’analisi del suono della voce a quella dell’attività cerebrale, dal monitoraggio della respirazione a quello dell’attività elettrica cutanea. L’IA permette di analizzare tutto utilizzando un modello e processando tutto insieme».

Poi però le emozioni registrate e misurate devono anche essere “trasferite”...
«Analizzando i dati raccolti, e conoscendo i processi di interazione tra cuore, cervello e sistema nervoso periferico, siamo in grado di definire l’emozione come una mappa sensoriale del corpo. Passando alla sua induzione, l’IA serve per fare soprattutto due cose: la prima è manipolare la realtà virtuale agendo in tempo reale su video e audio per generare emozioni specifiche. Immagini una canzone dello zecchino d’oro, con la sua carica di allegria: se ad esempio gliela faccio ascoltare alla metà della velocità, scatena sensazioni molto diverse. Ecco, qualcosa di simile può essere esteso a tutti gli aspetti sensoriali, di fatto pilotando l’esperienza».


E la seconda cosa?


«È un aspetto più delicato: il nostro obiettivo è misurare la percezione del tempo. A livello fisiologico, questa è rilevata con precisione da specifiche cellule del cervello e meccanismi come i ritmi circadiani mentre, a livello cognitivo, essa dipende dallo stato mentale, emotivo, e psico-fisico. Una conversazione noiosa o piacevole può ad esempio dare l'impressione che lo scorrere del tempo acceleri o rallenti. Noi vogliamo utilizzare l’intelligenza artificiale sia per riuscire a misurare tale percezione, sia per manipolarla e indurre specifici stati cognitivo-emozionali utilizzando opportune stimolazioni video, audio e sensoriali».


L’intelligenza artificiale di cui disponiamo oggi è abbastanza potente per riuscire nell’impresa?

«Gli algoritmi di cui disponiamo, non dissimili da quelli utilizzati ad esempio per creare il software Alphago campione del gioco Go, hanno il problema di essere “scatole nere”: incamerano i dati e generano un output che è utilizzabile, ma che non ci spiega quali dei parametri analizzati definisca veramente un certo tipo di esperienza, elemento assolutamente necessario affinché i risultati abbiano una rilevanza clinica. Stiamo lavorando per sviluppare nuovi algoritmi che siano più comprensibili, che siano in grado di evidenziare i vari passaggi del processo con cui arrivano a certe conclusioni. Solo così è possibile arrivare a una diagnosi, che deriva dalla registrazione delle emozioni, e a un trattamento medico, che si baserà sull’induzione di esperienze ad hoc».

Sembra fantascienza...
«Eppure già oggi esiste una branca della medicina che usa la realtà virtuale per esempio per trattare le fobie, utilizzata per esporre gradualmente un paziente a ciò che lo spaventa ed aiutarlo a vincere i propri timori. Così come, allo stesso modo, è possibile identificare sintomi depressivi e tendenze suicide semplicemente analizzando i post sui social di un determinato soggetto. Entrambe le cose possono essere fatte ancora più efficacemente utilizzando una realtà virtuale aumentata, quella che noi chiamiamo “realtà virtuale estesa e personale”»


Qualcuno obietterà che questa tecnologia ricorda Matrix e potrebbe essere utilizzata anche per scopi malevoli...
«Premesso che ogni passo da noi compiuto è strettamente monitorato dal punto di vista etico, credo sia caratteristica propria di ogni grande progresso tecnologico porre delle sfide in questo senso. I nostri studi hanno dimostrato che è possibile stimare lo stato psico-fisico ed emotivo di una persona monitorando solo il suo battito cardiaco, e mentre parliamo ci sono in giro milioni di smartwatch che lo fanno e che potrebbero essere usati per raccogliere informazioni di questo tipo. Dipende da chi quella tecnologia la produce e gestisce. Del resto, ogni volta che postiamo parole, immagini o video, già oggi lasciamo una firma personale molto profonda in rete. È bene che tutti ne siano al corrente.

*Giornalista esperto di innovazione e curatore dell’Osservatorio Intelligenza Artificiale ANSA.it

RIPRODUZIONE RISERVATA © Copyright ANSA