Si chiama Emo, il robot che sa sorridere per primo quando interagisce con un essere umano. Dopo decenni di ricerche tese a dare ai robot delle espressioni simili a quelle umane, il nuovo passo in avanti, pubblicato sulla rivista Science Robotics dalla Columbia University di New York, consiste nel determinare un'interazione diretta nella quale la macchina non si limita ad assumere un'espressione triste o allegra, ma lo fa adattandosi al suo interlocutore umano: è una capacità importante per i futuri robot destinati ad assistere persone anziane o malate, ma secondo gli stessi autori della ricerca richiederà delle regole.
"Penso che prevedere con precisione le espressioni facciali umane sia una rivoluzione nel campo dell'interazione fra robot ed esseri umani", osserva il primo autore della ricerca Yuhang Hu, dottorando presso la Columbia Engineering, nel Creative Machines Lab diretto da Hod Lipson. "Quando un robot assume delle espressioni facciali in tempo reale interagendo con le persone, non solo migliora la qualità dell'interazione, ma aiuta anche a creare fiducia tra gli esseri umani e i robot", aggiunge.
Emo osserva il viso del suo interlocutore umano grazie alle telecamere ad alta risoluzione inserite nelle pupille e riconosce le espressioni grazie a un sistema di intelligenza artificiale, mentre un altro sistema di IA gli permette di riprodurle guidando i movimenti di ben 26 attuatori della faccia, rivestita di silicone biancastro e modellata sulle fattezze di un essere umano. Un sistema di fissaggio magnetico permette di modellare la faccia del robot in modo da darle fisionomie diverse e da rendere la manutenzione più semplice e rapida. E' così che, interagendo con i ricercatori, il robot è riuscito a sorridere loro anticipandoli di 840 millisecondi, un tempo confrontabile a quello di un'interazione fra esseri umani in tempo reale.
Per addestrare il robot, i ricercatori gli hanno fatto fare movimenti causali davanti a una telecamera e, dopo qualche ora, Emo ha imparato la relazione tra le espressioni facciali e i comandi motori; quindi Emo ha girato video di espressioni facciali umane e poi le ha osservate fotogramma per fotogramma finché, dopo alcune ore, è riuscito a prevedere le espressioni facciali delle persone osservando i piccoli cambiamenti nei loro volti.
Il passo successivo sarà abbinare alle espressioni facciali una capacità verbale altrettanto efficace e tempestiva, addestrando il robot con modelli linguistici di IA come GhatGtp. "Ci stiamo avvicinando a un futuro in cui i robot potranno integrarsi perfettamente nella nostra vita quotidiana, offrendo compagnia, assistenza e persino empatia", osservano i ricercatori.
Nello stesso tempo, aggiungono, "siamo consapevoli delle dimensioni etiche associate a questa tecnologia". Sebbene i robot capaci di comunicare in modo più efficace con gli esseri umani permettano "una grande quantità di applicazioni positive", i ricercatori osservano che "spetta agli sviluppatori e agli utenti esercitare prudenza e considerazioni etiche. Il potenziale uso improprio di questa tecnologia, come l'inganno o la manipolazione, sottolinea la necessità di quadri etici e di governance solidi a garanzia che queste innovazioni siano allineate con i valori e il benessere della società".
Riproduzione riservata © Copyright ANSA