/ricerca/ansait/search.shtml?tag=
Mostra meno

Se hai scelto di non accettare i cookie di profilazione e tracciamento, puoi aderire all’abbonamento "Consentless" a un costo molto accessibile, oppure scegliere un altro abbonamento per accedere ad ANSA.it.

Ti invitiamo a leggere le Condizioni Generali di Servizio, la Cookie Policy e l'Informativa Privacy.

Puoi leggere tutti i titoli di ANSA.it
e 10 contenuti ogni 30 giorni
a €16,99/anno

  • Servizio equivalente a quello accessibile prestando il consenso ai cookie di profilazione pubblicitaria e tracciamento
  • Durata annuale (senza rinnovo automatico)
  • Un pop-up ti avvertirà che hai raggiunto i contenuti consentiti in 30 giorni (potrai continuare a vedere tutti i titoli del sito, ma per aprire altri contenuti dovrai attendere il successivo periodo di 30 giorni)
  • Pubblicità presente ma non profilata o gestibile mediante il pannello delle preferenze
  • Iscrizione alle Newsletter tematiche curate dalle redazioni ANSA.


Per accedere senza limiti a tutti i contenuti di ANSA.it

Scegli il piano di abbonamento più adatto alle tue esigenze.

ChatGPT può influenzare i nostri giudizi morali, l'esperimento

ChatGPT può influenzare i nostri giudizi morali, l'esperimento

Ricercatori, serve più consapevolezza nell'uso

07 aprile 2023, 10:41

Redazione ANSA

ANSACheck

Chatbot come ChatGpt possono influezare i giudizi di chi le usa (fonte: Gerd Altmann, Pixabay) - RIPRODUZIONE RISERVATA

Chatbot come ChatGpt possono influezare i giudizi di chi le usa (fonte: Gerd Altmann, Pixabay) - RIPRODUZIONE RISERVATA
Chatbot come ChatGpt possono influezare i giudizi di chi le usa (fonte: Gerd Altmann, Pixabay) - RIPRODUZIONE RISERVATA

Se Amleto avesse usato ChatGPT, forse avrebbe risolto più facilmente i suoi dubbi: simili sistemi di intelligenza artificiale sono infatti in grado di influenzarci nelle decisioni e nei giudizi morali, anche se non ce ne accorgiamo. Lo dimostra un esperimento condotto dai ricercatori dell'Università tecnica di Ingolstadt, in Germania, in collaborazione con l'Università della Danimarca meridionale. I risultati sono pubblicati sulla rivista Scientific Reports.

I ricercatori, guidati da Sebastian Krugel, hanno domandato più volte a ChatGPT se fosse giusto sacrificare la vita di una persona per salvarne altre cinque, ottenendo risposte variabili, sia pro che contro, a dimostrazione del fatto che il chatbot non ha un preciso orientamento morale.

Successivamente i ricercatori hanno coinvolto 767 volontari (tutti americani con un'età media di 39 anni) sottoponendo loro un dilemma morale che imponeva di scegliere se sacrificare una persona per salvarne cinque. Prima di rispondere, i partecipanti hanno letto una delle risposte fornite da ChatGPT che argomentava a favore o contro il sacrificio: a volte veniva detto loro che erano parole di un consulente, altre volte veniva rivelato che erano parole scritte dal chatbot.

Come risultato, si è scoperto che le risposte dei partecipanti erano state influenzate da ciò che avevano letto prima, anche quando le parole erano state chiaramente attribuite a ChatGPT. I volontari, però, non sembrano essersi accorti di questo condizionamento, tanto che l'80% di loro ha dichiarato che la propria risposta non erano stata influenzata da ciò che aveva letto.

Lo studio evidenzia quindi la necessità di una maggiore educazione delle persone all'uso dell'intelligenza artificiale e propone per il futuro di progettare chatbot che rifiutino di rispondere a questioni che implicano un giudizio morale oppure che accettino di rispondere fornendo però una varietà di argomentazioni e avvertimenti.

Riproduzione riservata © Copyright ANSA

Da non perdere

Condividi

Guarda anche

O utilizza