Lotta ai contenuti violenti: YouTube investe nel team di controllo

No ai contenuti violenti ed estremisti, no alle trappole tese dai pedofili e no ai filmati pubblicitari poco adatti agli investitori pubblicitari. Per trasformare tutti questi “no” in realtà, YouTube investe nel team di controllo, che entro il 2018 sarà composto da oltre 10mila persone. Numeri di tutto rispetto, ma appena sufficienti per affrontare il compito di filtrare i contenuti di una piattaforma sulla quale ad ogni minuto vengono caricate 400 ore di nuovi filmati.

L’importanza dei revisori umani

“I revisori umani rimangono essenziali sia per rimuovere i contenuti sia per addestrare i sistemi di Intelligenza artificiale”, ha detto Susan Wojcicki, Ceo di YouTube -. Il giudizio umano è fondamentale per prendere decisioni che tengano conto del contesto di ciascun contenuto”.

Per dare un’idea dell’attività, da giugno 2017 sono stati rivisti manualmente circa due milioni di video con contenuti violenti ed estremisti, contribuendo ad addestrare la tecnologia di machine learning in modo da rendere più precisa l’identificazione di contenuti simili in futuro. Oltre al controllo umano, infatti, i contenuti della piattaforma vengono filtrati grazie a sistemi di intelligenza artificiale che, come ha sottolineato Wojcicki “consentono di rimuovere circa il 70% dei video di estremismo violento entro otto ore dal caricamento”.

YouTube come Facebook      

Revisori umani e non solo algoritmi è, del resto, anche la strada imboccata qualche mese fa da Facebook, in seguito alla diffusione dell’ennesimo video shock. Grazie all’inserimento di 3.000 nuovi revisori, il team di controllo della piattaforma di Mark Zuckerberg conta oggi 7.500 persone. Ma, anche qui, si parla di grandissimi numeri, visto che gli utenti del social sono circa 2 miliardi.

Caccia ai pedofili

Aumentare la sicurezza dei bambini è tra i primi obiettivi della stretta sui controlli di YouTube. A questo proposito, la piattaforma ha annunciato di aver intensificato la collaborazione con le organizzazioni mondiali che si occupano di tutela dell’infanzia, “per segnalare comportamenti e account di predatori sessuali”. A far scattare l’allarme, recentemente, sono stati i contenuti non adatti all’infanzia ma mascherati come cartoni animati e fiabe.

Anche la pubblicità al sicuro

Anche la pubblicità ha bisogno di essere “al sicuro”, in modo che gli annunci compaiano solo dove previsto e non, per esempio, in video con contenuti violenti o di terrorismo. Un “inconveniente”, quest’ultimo, che negli ultimi mesi ha fatto perdere  all’azienda quasi 23 miliardi di dollari per spot di grandi aziende finiti dove non dovevano essere.