/ricerca/ansait/search.shtml?tag=
Mostra meno

Se hai scelto di non accettare i cookie di profilazione e tracciamento, puoi aderire all’abbonamento "Consentless" a un costo molto accessibile, oppure scegliere un altro abbonamento per accedere ad ANSA.it.

Ti invitiamo a leggere le Condizioni Generali di Servizio, la Cookie Policy e l'Informativa Privacy.

Puoi leggere tutti i titoli di ANSA.it
e 10 contenuti ogni 30 giorni
a €16,99/anno

  • Servizio equivalente a quello accessibile prestando il consenso ai cookie di profilazione pubblicitaria e tracciamento
  • Durata annuale (senza rinnovo automatico)
  • Un pop-up ti avvertirà che hai raggiunto i contenuti consentiti in 30 giorni (potrai continuare a vedere tutti i titoli del sito, ma per aprire altri contenuti dovrai attendere il successivo periodo di 30 giorni)
  • Pubblicità presente ma non profilata o gestibile mediante il pannello delle preferenze
  • Iscrizione alle Newsletter tematiche curate dalle redazioni ANSA.


Per accedere senza limiti a tutti i contenuti di ANSA.it

Scegli il piano di abbonamento più adatto alle tue esigenze.

ChatGpt non ha superato il test di Turing, ma ci è andato vicino

ChatGpt non ha superato il test di Turing, ma ci è andato vicino

È riuscito a ingannare i partecipanti il 41% delle volte

ROMA, 06 novembre 2023, 07:59

Redazione ANSA

ANSACheck

© ANSA/EPA

© ANSA/EPA
© ANSA/EPA

ChatGpt non ha superato il test di Turing, ideato per capire se una macchina ha raggiunto un livello di intelligenza tale da poter ingannare qualcuno facendogli credere di essere umana. Ci è andato però molto vicino: nella sua versione più aggiornata, Gpt-4, è riuscito a ingannare i partecipanti il 41% delle volte. Il risultato è stato pubblicato sulla piattaforma arXiv, che ospita lavori non ancora passati al vaglio della comunità scientifica, da due ricercatori dell'Università della California a San Diego, che mettono in guardia sulle conseguenze economiche e sociali che potrebbe avere un'Intelligenza Artificiale in grado di farsi passare per un essere umano.

I due ricercatori Cameron Jones e Benjamin Bergen hanno arruolato 650 partecipanti per sostenere brevi conversazioni con altri volontari oppure con ChatGpt, a loro insaputa. L'ultima versione Gpt-4, rilasciata dall'azienda OpenAI quest'anno, ha convinto i partecipanti di essere una persona il 41% delle volte, mentre la versione precedente, chiamata Gpt-3.5, solo dal 5% al 14% delle volte. È interessante anche notare che gli esseri umani sono riusciti a convincere gli altri volontari di non essere delle macchine solo nel 63% delle prove.

Coloro che hanno smascherato correttamente ChatGpt si sono basati su alcuni fattori chiave: conversazioni troppo formali o, all'opposto, troppo informali, testi eccessivamente prolissi o molto sintetici, oppure anche una grammatica e una punteggiatura eccezionalmente buona o pessima, erano tutti elementi che facevano risuonare un segnale di 'allarme'. Un'altra caratteristica rivelatrice è risultata la genericità della risposta. "Questi sistemi sono ottimizzati per produrre testi altamente probabili e per evitare opinioni controverse", spiegano gli autori dello studio: "Ciò incoraggia risposte molto generiche, prive delle idiosincrasie tipiche di una persona".   

Riproduzione riservata © Copyright ANSA

Da non perdere

Condividi

O utilizza