Tweet razzisti, Microsoft 'zittisce' robot Tay

Utenti gli insegnano messaggi offensivi, e' offline

Microsoft zittisce il suo 'chatbot' Tay per i commenti razzisti, sessisti e xenofobi. Il robot dotato di intelligenza artificiale lanciato su Twitter e altre piattaforme social aveva come obiettivo di avviare e sostenere conversazioni con i millennial, i giovani americani. Ma l'esperimento non ha funzionato.

Tay è programmato per imparare ripetendo a pappagallo e poi rispondere con le 'sue' frasi, cercando di simulare una conversazione normale. La rete si è però approfittata delle sue modalità di apprendimento, insegnando a Tay messaggi razzisti.

Fra i tweet cancellati e che hanno costretto Microsoft a mettere online Tay spicca la seguente: "Bush ha causato l'11 settembre e Hitler avrebbe fatto un lavoro migliore". Tay ha anche appoggiato il genocidio e negato l'Olocausto. E scritto: "costruiremo il muro. E il Messico lo pagherà", sposando di fatto uno dei cavalli di battaglia di Donald Trump, il candidato repubblicano alla Casa Bianca.

"Tay è un progetto, è un esperimento sociale e culturale, oltre che tecnico - afferma Microsoft -. Sfortunatamente, nelle sue prime 24 ore online, siamo divenuti consapevoli del coordinato sforzo di alcuni utenti di voler abusare di Tay.

Tay ora è offline e siamo facendo modifiche". Per Microsoft si tratta di un brutto colpo. Il sistema su cui Tay e' stato programmato puntava i giovani americani fra i 18 e i 24 anni e aveva come obiettivo attirare un maggior numero di ragazzi all'universo Microsoft.

L'interazione con Tay avrebbe dovuto fornire a Microsoft gli strumenti per sviluppare tecnologie migliori, portando anche alla creazione di robot per il grande pubblico. L'attuale assistente vocale di Cortana, così come Siri di Apple, sono in grado per ora di rispondere solo a domande dirette e semplici senza pero' capire il contesto e l'eventuale sarcasmo.
   

RIPRODUZIONE RISERVATA © Copyright ANSA