Gli antichi testi indiani ispirano le auto senza pilota

Suggeriscono come progettare robot capaci di fare scelte giuste

Redazione ANSA

Gli antichissimi testi indiani Veda custodiscono i segreti per progettare robot capaci di prendere decisioni etiche, a partire dalle auto senza pilota. A interpretarli per la prima volta con gli strumenti della logica matematica è il gruppo guidato dall'italiana Agata Ciabattoni, del Politecnico di Vienna, e da Elisa Freschi, esperta di sanscrito dell'Accademia Austriaca delle Scienze.

"I Veda sono testi che risalgono a più di 2.000 anni fa e sono i primi incentrati su obblighi e proibizioni", ha detto Ciabattoni all'ANSA. "Sono una sorgente enorme di idee, cui nessun logico o informatico ha mai potuto accedere per via del fatto che sono scritti in sanscrito e anche quando tradotti, sono incomprensibili". Ora, ha proseguito, "abbiamo il gruppo giusto, composto da esperti di logica, informatica e sanscrito", per analizzarli e per tradurre in un linguaggio matematico, comprensibile da un computer, le regole etiche che riguardano divieti e obblighi.

I ricercatori si stanno basando sull'interpretazione di questi testi fatta dalla scuola filosofica Mīmāṃsā, che considera i precetti contenuti nei Veda come leggi alle quali dare un significato razionale e obiettivo. "Si interrogano, ad esempio, su che cos'è un obbligo, a che cosa e a chi si applica, e che cosa fare in casi di conflitti tra obblighi e proibizioni", ha spiegato Ciabattoni.

Una ricerca preliminare dello stesso gruppo ha rivelato che "uno dei principali filosofi della scuola parla di obblighi da seguire in situazioni non volute, in modo da ottenere 'il male minore'". Da qui, ha proseguito la ricercatrice, la connessione con i robot e le auto a guida autonoma: "si possono trovare in situazioni in cui sarebbe bene scegliere il male minore, ad esempio quando si è costretti a scegliere se far male a qualcuno o andare a sbattere contro un muro".

I ricercatori adesso puntano a trasformare le antichi leggi in formule matematiche per aiutare le macchine a decidere da sole se un determinato comportamento sia accettabile o meno, e "in modo da aiutarle a compiere le scelte più giuste possibili".

 

Queste operazioni non possono basarsi sulla logica classica, che si occupa di definire se determinate affermazioni siano vere o false: "quando abbiamo a che fare con divieti e obblighi - ha osservato Ciabattoni - non siamo interessati a ciò che è vero o falso, ma a ciò che dovremmo o non dovremmo fare". Pertanto, è richiesta una logica completamente diversa, che riguarda obblighi e proibizioni e proprio come quella classica, può essere espressa con formule matematiche "che ci permettono di dimostrare inequivocabilmente se un determinato ragionamento sia corretto o meno".

RIPRODUZIONE RISERVATA © Copyright ANSA
TI POTREBBERO INTERESSARE ANCHE: