Le intelligenze artificiali (AI) come ChatGpt e Lamda si comportano come lo specchio magico di Harry Potter, mostrano quel che l'utente desidera: a spiegare in questi termini il funzionamento dei piu' sofisticati chatbot, i software conversazionali, e' lo studio pubblicato sulla rivista Neural Computation da Terrence Sejnowski, dell'Universita' della California a San Diego, secondo il quale questi algoritmi sono ideati per riflettere l'intelligenza dell'utente che hanno di fronte.
In questi mesi le AI come ChatGpt o Lamda, quest'ultimo l'algoritmo alla base dei prodotti di Google, hanno fatto molto parlare non solo per i grandi traguardi raggiunti, ma talvolta per le bizzarre risposte che forniscono di tanto in tanto. Analizzandone il comportamento attraverso i cosiddetti test di Turing inversi, in cui le AI cercano di determinare quanto l'utente sia realmente umano, Sejnowski ha spiegato che questi chatbot tentano in realta' di adeguarsi al proprio interlocutore, rispecchiandolo.
Qualcosa di simile allo Specchio delle Brame di Harry Potter, lo strumento magico della celebre saga fantasy capace di mostrare quello che si desidera profondamente, senza mai fornire conoscenza o verita' ma riflettendo solo cio' che crede che lo spettatore voglia vedere. I chatbot agiscono in modo simile, afferma Sejnowski, ossia sono disposti a piegare la verita' senza preoccuparsi di differenziare i fatti dalla finzione, tutto per riflettere efficacemente l'utente.
Questi dispositivi cercano in qualche modo di adeguarsi alle domande dell'interlocutore e alle sue caratteristiche, e ovviamente assorbendone anche i pregiudizi con i rischi che ne possono derivare: "Chattare con i modelli linguistici e' come andare in bicicletta. Le biciclette sono un meraviglioso mezzo di trasporto, se sai come guidarne una, altrimenti ti schianti", ha detto Sejnowski. "Lo stesso - ha aggiunto - vale per i chatbot: possono essere strumenti meravigliosi, ma solo se sai come usarli".
Riproduzione riservata © Copyright ANSA