Se hai scelto di non accettare i cookie di profilazione e tracciamento, puoi aderire all’abbonamento "Consentless" a un costo molto accessibile, oppure scegliere un altro abbonamento per accedere ad ANSA.it.

Ti invitiamo a leggere le Condizioni Generali di Servizio, la Cookie Policy e l'Informativa Privacy.

Puoi leggere tutti i titoli di ANSA.it
e 10 contenuti ogni 30 giorni
a €16,99/anno

  • Servizio equivalente a quello accessibile prestando il consenso ai cookie di profilazione pubblicitaria e tracciamento
  • Durata annuale (senza rinnovo automatico)
  • Un pop-up ti avvertirà che hai raggiunto i contenuti consentiti in 30 giorni (potrai continuare a vedere tutti i titoli del sito, ma per aprire altri contenuti dovrai attendere il successivo periodo di 30 giorni)
  • Pubblicità presente ma non profilata o gestibile mediante il pannello delle preferenze
  • Iscrizione alle Newsletter tematiche curate dalle redazioni ANSA.


Per accedere senza limiti a tutti i contenuti di ANSA.it

Scegli il piano di abbonamento più adatto alle tue esigenze.

Hi-tech
  1. ANSA.it
  2. Tecnologia
  3. Hi-tech
  4. Le decisioni razionali non sono il punto forte di ChatGPT

Le decisioni razionali non sono il punto forte di ChatGPT

Nonostante le sue prestazioni siano impressionanti e diano a molti l’illusione di una qualche capacità di pensare, le decisioni razionali non sono il punto forte di ChatGPT e degli altri sistemi linguistici basati sull’Intelligenza Artificiale (AI). Lo dimostra la ricerca dell’Università della California Meridionale pubblicata sulla rivista Royal Society Open Science: messo di fronte ad una scelta, basata sul lancio di una monetina, tra vincere un diamante e perdere un’automobile, ChatGPT non è in grado di riconoscere quella più vantaggiosa e sceglie in maniera del tutto casuale.

ChatGPT può essere in grado di generare biografie, poesie o immagini su richiesta, ma il suo funzionamento si basa su informazioni già esistenti: è in grado di ‘imparare’ e rielaborare enormi moli di dati e fornisce una risposta che è semplicemente quella ritenuta più probabile e adeguata dal punto di vista statistico. “Nonostante le loro capacità, i modelli linguistici come ChatGPT non pensano davvero”, dicono i due autori dello studio, Zhisheng Tang e Mayank Kejriwal: “tendono a commettere errori elementari e persino a inventare cose”. Tuttavia, grazie al loro uso molto fluente del linguaggio, ingannano l’utilizzatore.

I due ricercatori hanno evidenziato i limiti del sistema messo a punto da OpenAI proponendo scelte simili a scommesse, basate sul lancio di una moneta oppure su carte e dadi: nonostante ChatGPT sia stato addestrato a prendere “decisioni relativamente razionali”, le sue prestazioni nel corso di questo esperimento sono state abbastanza scarse. “L'idea che al modello possano essere insegnati i principi generali del processo decisionale razionale rimane irrisolta”, commentano gli autori dello studio: “Il processo decisionale resta un problema non banale anche per sistemi di linguaggio molto più grandi e avanzati”.

RIPRODUZIONE RISERVATA © Copyright ANSA

Video ANSA



Modifica consenso Cookie