YouTube contro il linguaggio dell'odio, cresce il team di controllo

'Entro il 2018 avrà 10mila persone, vogliamo proteggere la community'

Cresce il team di controllo di YouTube su linguaggio d'odio, contenuti estremisti, commenti pedofili, o filmati inappropriati per investitori pubblicitari. La piattaforma, che negli ultimi mesi ha dovuto fronteggiare diverse polemiche, ingrandisce il team di controllo che entro il 2018 sarà composto da oltre 10mila persone. L'ultima mossa di una serie di iniziative intraprese un anno fa per riuscire nell'ardua impresa di filtrare i contenuti di una piattaforma su cui vengono caricate 400 ore ore di nuovi filmati ogni minuto. Una strada già tentata da Facebook. 

"I revisori umani rimangono essenziali sia per rimuovere i contenuti sia per addestrare i sistemi di Intelligenza artificiale, il giudizio umano è fondamentale per prendere decisioni che tengano conto del contesto di ciascun contenuto", spiega Susan Wojcicki, Ceo di YouTube, aggiungendo che da giugno sono stati rivisti "manualmente circa due milioni di video con contenuti violenti di estremisti, contribuendo ad addestrare la tecnologia di machine learning per identificare video simili in futuro". "Continueremo a far crescere in maniera significativa i nostri team - sottolinea Wojcicki - con l'obiettivo di portare nel 2018 a oltre 10mila il numero totale delle persone che in Google lavorano per indirizzare i contenuti che potrebbero violare le nostre norme". La piattaforma, oltre al controllo umano, ricorda che si affida anche a sistemi di intelligenza artificiale che "consentono di rimuovere circa il 70% dei video di estremismo violento entro otto ore dal caricamento".

YouTube sta anche lavorando ad una stretta sui commenti e ad intensificare la collaborazione con organizzazioni che in tutto il mondo si occupano della sicurezza dei bambini "per segnalare comportamenti e account di predatori sessuali". Il riferimento è alle polemiche scoppiate di recente su frasi a sfondo pedofilo spuntate nella ricerca dei video e ai contenuti poco appropriati per bambini mascherati da fiabe e cartoni animati. Altro tema sensibile per Google e YouTube è quello della pubblicità, la fetta più consistente dei suoi guadagni. Negli scorsi mesi l'azienda ha bruciato quasi 23 miliardi di dollari per alcuni spot di grandi aziende finite in video dai contenuti violenti o di terrorismo. "Prevediamo criteri più stringenti e maggiori controlli manuali e rinforzeremo il nostro team di revisori della pubblicità per essere sicuri che gli annunci compaiano solo dove previsto", spiega Susan Wojcicki. "Vogliamo proteggere la nostra community ed essere un passo avanti rispetto ai malintenzionati", conclude la numero 1 della società.

La strada intrapresa da YouTube è simile a quella già percorsa da Facebook qualche mese fa. Dopo l'ennesimo video shock circolato sulla piattaforma Mark Zuckerberg decise di non affidarsi solo agli algoritmi ma di rafforzare il team di controllo, aggiungendo 3mila revisori ai 4.500 già esistenti. Una sfida non da poco per una piattaforma che conta due miliardi di utenti.
   

RIPRODUZIONE RISERVATA © Copyright ANSA