Se hai scelto di non accettare i cookie di profilazione e tracciamento, puoi aderire all’abbonamento "Consentless" a un costo molto accessibile, oppure scegliere un altro abbonamento per accedere ad ANSA.it.

Ti invitiamo a leggere le Condizioni Generali di Servizio, la Cookie Policy e l'Informativa Privacy.

Puoi leggere tutti i titoli di ANSA.it
e 10 contenuti ogni 30 giorni
a €16,99/anno

  • Servizio equivalente a quello accessibile prestando il consenso ai cookie di profilazione pubblicitaria e tracciamento
  • Durata annuale (senza rinnovo automatico)
  • Un pop-up ti avvertirà che hai raggiunto i contenuti consentiti in 30 giorni (potrai continuare a vedere tutti i titoli del sito, ma per aprire altri contenuti dovrai attendere il successivo periodo di 30 giorni)
  • Pubblicità presente ma non profilata o gestibile mediante il pannello delle preferenze
  • Iscrizione alle Newsletter tematiche curate dalle redazioni ANSA.


Per accedere senza limiti a tutti i contenuti di ANSA.it

Scegli il piano di abbonamento più adatto alle tue esigenze.

  1. ANSA.it
  2. Speciali
  3. AI tra etica e pericoli. Il card.Ravasi: "Non sia autoreferenziale"
Osservatorio Intelligenza Artificiale

AI tra etica e pericoli. Il card.Ravasi: "Non sia autoreferenziale"

Il ministro della Difesa Guerini: 'Restano perplessità su utilizzo spinto di questa tecnologia'

Martino Iannone

L'intelligenza artificiale pervade sempre più le nostre vite e aumenta il proprio impatto sulla società, destando nuove preoccupazioni e situazioni impreviste da affrontare. È quindi necessario esaminare l'argomento con un approccio multidisciplinare, che tenga conto di interessi sociali ed umani plurimi. Questi aspetti includono la responsabilità dell'uomo sulla macchina, in particolare per quanto riguarda il processo decisionale. In tale contesto quali sono i nuovi criteri per valutare la liceità di una decisione ed azione? Quali saranno le ricadute sociali sul mondo del lavoro, sui rapporti interpersonali e sulla definizione della propria identità? Per cercare di dare delle risposte a questi e ad altri interrogativi sul tema, il segretariato generale della Difesa e direzione nazionale degli armamenti, in collaborazione con il Pontificium Consilium de Cultura della Santa Sede, ha promosso una gioranta di studio a Roma alla quale, tra gli altri, hanno offerto il proprio contributo il ministro della Difesa, Loreno Guerini, il card. Gianfranco Ravasi, presidente del Pontificio Consiglio della Cultura e il generale Nicolò Falsaperrna, segretario generale della Difesa e direttore nazionlae degli armamenti.

"L’intelligenza artificiale - ha detto il cardinale Ravasi - può rappresentare un pericolo quando, per sua natura, diventa autoreferenziale. Quando soprattutto all’interno della macchina si introduce un algoritmo così aperto per cui la macchina verrebbe dotata quasi di un’autocoscienza e, come tale, di decisioni che possono coinvolgere poi l’esistenza di altri adottando decisioni molto simili alle scelte etiche che può fare un essere umano. In questo caso risulterebbe poi incontrollabile. Per questa ragione occorre sempre che, insieme alla tecnica e alla sua grandissima capacità di aprire itinerari creativi importanti – basti pensare a cosa può dare l’intelligenza artificiale nel campo della robotica terapeutica e  nel campo del lavoro, evitando impegni usuranti e ripetitivi - ci sia anche un’attenzione alle questioni etiche che ne derivano, cioè occorre che ci sia anche una visione culturale generale e, se si vuole, anche una visione religiosa dietro ogni tecnologia".

Card. Ravasi: l'AI diventa pericolosa se è autoreferenziale

"Oggi - ha detto il ministro della Difesa Guerini - affidiamo, in maniera quasi fideistica, gli aspetti più delicati della nostra vita, la nostra prosperità, la nostra stessa sicurezza, sia come singoli individui sia come collettività nazionali ed internazionali, a sistemi governati da tecnologie sempre più pervasive e dirompenti. Quasi tutte le nostra attività sono supportate o abilitate da computer che spaziano dai dispositivi mobili, ormai parte della nostra quotidianità (smartphone, tablet), ai sistemi di controllo del traffico aereo e ferroviario, passando per i dispositivi biomedici e per le smartcard che garantiscono sicurezza per l’identificazione e le transazioni finanziarie.  In questa rincorsa costante verso un’automazione sempre più spinta e pervasiva dobbiamo porci una domanda: fino a che punto le applicazioni di Intelligenza Artificiale possono essere lasciate libere di agire in autonomia? E soprattutto, fino a che punto possiamo consentire questo in ambito militare? È evidente che in campo militare esistono significative implicazioni etiche e legali legate alla sempre più realistica capacità della macchine di ragionare come uomini. Quello militare è un ambito in cui, in un prossimo futuro, lo stesso processo decisionale per la scelta dell’uso della forza potrebbe essere affidato ad un sistema d’arma dotato di un elevato livello di autonomia. Sulla questione normativa la Commissione Giuridica della UE si è già espressa, ravvisando la necessità di individuare un adeguato sistema giuridico entro il quale poter collocare la robotica autonoma. Occorrerà regolamentare fenomeni che nascondono grandi incognite. Qualunque sarà l’evoluzione normativa permane, allo stato attuale, qualche legittima perplessità sull’utilizzo spinto dei dispositivi di Intelligenza Artificiale, e bisognerà definire in modo chiaro e condiviso i limiti e le condizioni di autonomia di tali macchine per la verificabilità e la tracciabilità del loro processo decisionale. Fino ad allora ritengo che il ruolo umano di supervisore delle decisioni, feedback e controllo delle operazioni rimarrà decisivo".

RIPRODUZIONE RISERVATA © Copyright ANSA

Modifica consenso Cookie