Friuli Venezia Giulia

Esperta, 'ChatGpt può essere ingannevole, verificare contenuti'

Bisazza: 'Le informazioni sono reperite in modo probabilistico'

Redazione Ansa

(ANSA) - UDINE, 09 GEN - "Ciò che ChatGpt e altri strumenti di questo genere producono va sempre verificato: quando si chiedono informazioni, ricordiamo che potrebbero essere sbagliate. Il sistema fa degli errori per la natura stessa di questa tecnologia, che tende a inventare fatti e a farli sembrare veri". Lo ha detto oggi a Udine Arianna Bisazza, professoressa associata di Natural Language Processing all'Università di Groninga (Paesi Bassi), studiosa esperta di plurilinguismo e qualità della traduzione automatica, intervenendo alla conferenza "Generazione del testo con ChatGpt e altri strumenti di Intelligenza artificiale: opportunità e rischi", organizzata dal Laboratorio di redattologia e traduttologia dell'Università di Udine e dal Gruppo degli Indisciplinati, nuovo progetto di collaborazione tra studenti e professori di vari dipartimenti per sviluppare l'interdisciplinarietà e la condivisione di idee in un'ottica di ecologia integrale.
    Bisazza si è prima soffermata sui vantaggi di Chat Gpt, uno "strumento di generazione di testi molto potente - ha detto - che si può usare in diversi ambiti, da quello pubblicitario, alla traduzione, fino a quello della generazione di codici di programmazione". Poi ha messo in guardia la platea dal rischio maggiore che l'uso di questa tecnologia comporta: "La forma proposta da Chat Gpt è accattivante - ha sottolineato -, ma i contenuti possono essere falsi: spesso il sistema si inventa cose, perché reperisce le informazioni da un enorme deposito e lo fa in modo probabilistico". (ANSA).
   

Leggi l'articolo completo su ANSA.it