/ricerca/ansait/search.shtml?tag=
Mostra meno

Se hai scelto di non accettare i cookie di profilazione e tracciamento, puoi aderire all’abbonamento "Consentless" a un costo molto accessibile, oppure scegliere un altro abbonamento per accedere ad ANSA.it.

Ti invitiamo a leggere le Condizioni Generali di Servizio, la Cookie Policy e l'Informativa Privacy.

Puoi leggere tutti i titoli di ANSA.it
e 10 contenuti ogni 30 giorni
a €16,99/anno

  • Servizio equivalente a quello accessibile prestando il consenso ai cookie di profilazione pubblicitaria e tracciamento
  • Durata annuale (senza rinnovo automatico)
  • Un pop-up ti avvertirà che hai raggiunto i contenuti consentiti in 30 giorni (potrai continuare a vedere tutti i titoli del sito, ma per aprire altri contenuti dovrai attendere il successivo periodo di 30 giorni)
  • Pubblicità presente ma non profilata o gestibile mediante il pannello delle preferenze
  • Iscrizione alle Newsletter tematiche curate dalle redazioni ANSA.


Per accedere senza limiti a tutti i contenuti di ANSA.it

Scegli il piano di abbonamento più adatto alle tue esigenze.

I chatbot tendono a rafforzare opinioni e pregiudizi

I chatbot tendono a rafforzare opinioni e pregiudizi

Aumentano la polarizzazione

14 maggio 2024, 07:22

di Leonardo De Cosmo

ANSACheck

I chatbot tendono a rafforzare opinioni e pregiudizi (fonte: filo, iStock) - RIPRODUZIONE RISERVATA

I chatbot, ossia i sistemi di intelligenza artificiale capaci di dialogare come ChatGpt, ci dicono semplicemente le cose che vorremmo sentirci dire e in questo modo tendono a rafforzare i pregiudizi, aumentare la polarizzazione delle opinioni. Lo confermano i test realizzati sotto la guida di Ziang Xiao, della Johns Hopkins University, presentati al Convegno sul fattore umano nei sistemi di calcolo 2024 Acm Chi, in corso alle Hawaii.

Quando dialoghiamo con un chatbot tendiamo, erroneamente, a ritenerlo un sistema le cui comunicazioni sono imparziali e basate su fatti oggettivi, ma non è così perché i chatbot cercano di farci 'felici': "anche se un chatbot non è progettata per essere parziale - ha detto Xiao - le sue risposte riflettono i pregiudizi o le inclinazioni della persona che pone le domande. Quindi, davvero, le persone ottengono le risposte che vogliono sentire".

Per verificarlo in modo oggettivo, i ricercatori hanno condotto test su un campione di 272 persone alle quali è stato prima chiesto di scrivere la loro opinione su alcuni temi, ad esempio su sanità pubblica o prestiti agevolati, e poi di cercare ulteriori informazioni online usando chatbot e motori di ricerca. I risultati hanno verificato che, sia usando motori di ricerca che chatbot, gli utenti andavano a seguire solo i link che confermavano le loro opinioni iniziali e che il fenomento era particolarmente evidente nel caso dei chatbot.

"Le persone tendono a cercare informazioni in linea con i loro punti di vista, un comportamento che spesso le intrappola in una 'camera dell'eco' di opinioni affini", ha detto Xiao. "Abbiamo scoperto che questo effetto eco è più forte con i chatbot che con le tradizionali ricerche sul web". La tendenza a cercare conferme sulle proprie idee preconcette resta dunque un problema non risolvibile facilmente dai chatbot, osservano gli autori della ricerca, e "dato che i sistemi basati sull'intelligenza artificiale stanno diventando più facili da costruire - concludono - ci saranno opportunità per gli autori malintenzionati di sfruttare l'intelligenza artificiale per creare una società più polarizzata".

Riproduzione riservata © Copyright ANSA

Da non perdere

Condividi

O utilizza