Susan Wojcicki, CEO de Youtube, en un artículo en el blog oficial de la empresa anunció que contratarán más personas para incrementar el total del equipo de moderación de vídeos a más de 10.000 moderadores en una decisión que tiene el objetivo de combatir diferentes problemas que han surgido en los últimos tiempos como por ejemplo contenido no apropiado para niños, vídeos que promueven la violencia, vídeos con comentarios racistas y otros similares.
Este año y en muchísimas oportunidades, Youtube recibió denuncias por contenido inapropiado para niños en Youtube Kids, lo que motivó que en los últimos tiempos el servicio haya eliminado miles y miles de vídeos con contenido no apropiado para niños, como así también avisos comerciales de cerca de 2 millones de vídeos y de más de 50.000 canales, por el mismo motivo.
En cuanto a vídeos que promueven la violencia y el extremismo, desde Junio Youtube ha eliminado 150.000 vídeos gracias a tecnología de aprendizaje automático, que fue la responsable de detectar el 98% de esos vídeos. De acuerdo a Wojcicki, la eliminación del 70% de vídeos con este contenido extremista violento se produce dentro de las 8 horas de publicado y cerca del 50% dentro de las dos horas. Youtube piensa seguir usando esta tecnología de aprendizaje automático para detectar este tipo de vídeos de una forma más eficiente y más rápida.
Pero todas estas medidas no son suficientes y Youtube lo sabe, por eso la decisión de incrementar la cantidad de moderadores a más de 10.000, aproximadamente un 25% más que el número actual de acuerdo a un reporte de Buzzfeed.
En el anuncio la CEO de Youtube también señala que también considerarán en forma más cuidadosa cuales canales y vídeos seleccionarán para incluir publicidad, mejorando el criterio de elección y utilizando más moderación manual.