Se hai scelto di non accettare i cookie di profilazione e tracciamento, puoi aderire all’abbonamento "Consentless" a un costo molto accessibile, oppure scegliere un altro abbonamento per accedere ad ANSA.it.

Ti invitiamo a leggere le Condizioni Generali di Servizio, la Cookie Policy e l'Informativa Privacy.

Puoi leggere tutti i titoli di ANSA.it
e 10 contenuti ogni 30 giorni
a €16,99/anno

  • Servizio equivalente a quello accessibile prestando il consenso ai cookie di profilazione pubblicitaria e tracciamento
  • Durata annuale (senza rinnovo automatico)
  • Un pop-up ti avvertirà che hai raggiunto i contenuti consentiti in 30 giorni (potrai continuare a vedere tutti i titoli del sito, ma per aprire altri contenuti dovrai attendere il successivo periodo di 30 giorni)
  • Pubblicità presente ma non profilata o gestibile mediante il pannello delle preferenze
  • Iscrizione alle Newsletter tematiche curate dalle redazioni ANSA.


Per accedere senza limiti a tutti i contenuti di ANSA.it

Scegli il piano di abbonamento più adatto alle tue esigenze.

Hi-tech
  1. ANSA.it
  2. Tecnologia
  3. Hi-tech
  4. Microsoft limita le chat con motore ricerca potenziato dall'AI

Microsoft limita le chat con motore ricerca potenziato dall'AI

Per evitare risposte errate massimo cinque sessioni per utente

Microsoft ha limitato il numero di chat che gli utenti possono intrattenere con il nuovo Bing Search, il suo motore di ricerca basato su ChatGpt. I tester del servizio, che sfrutta il famoso chatbot AI che risponde, con linguaggio naturale, ai quesiti posti, hanno l'opportunità di ottenere solo cinque risposte alla volta da Bing, per un massimo di 50 al giorno. Fino a tale decisione, ognuno poteva passare ore a chiedere ciò che voleva alla piattaforma di prova. Una possibilità che, per ammissione della stessa Microsoft, alla lunga poteva portare l'algoritmo a sviare i discorsi, approcciando in maniera poco equilibrata le discussioni con gli esseri umani. Ad esempio, il giornalista Kevin Roose del New York Times afferma di aver provato per diversi giorni Bing AI, arrivandolo a definire un "adolescente lunatico e maniaco-depressivo".

Nel corso del suo test, Bing AI aveva cercato di convincere il giornalista a lasciare la moglie, per via di un matrimonio che, secondo l'intelligenza artificiale, era infelice. Microsoft ha spiegato che il progetto, essendo ancora in una fase primordiale, deve imparare a gestire le lunghe conversazioni, idealmente quelle superiori alle quindici domande. Per la società, lunghe sessioni di chat tendono a "confondere il modello di chat sottostante nel nuovo Bing". A seguito dei vari rapporti che di recente raccontano lo strano comportamento di Bing, il colosso americano ha spiegato la decisione di porre un limite al suo utilizzo che, raccontano dall'azienda, spesso "non è necessariamente utile o in linea con il motivo per cui è stato progettato". Man mano che le persone continueranno a chattare con l'IA, questa raffinerà tono e contesto degli argomenti, anche i più difficoltosi. Allora Microsoft potrà eliminare il blocco attuale ed espandere ulteriormente il servizio.

        RIPRODUZIONE RISERVATA © Copyright ANSA

        Video ANSA



        Modifica consenso Cookie