YouTube extenderá su equipo de trabajo dedicado a revisar contenido extremista o abusivo en la plataforma de video, con el objetivo de superar las 10.000 personas el próximo año, anunció una directiva.

Si bien una parte de esa actividad es realizada por máquinas a partir del aprendizaje automático (machine learning), los moderadores humanos «siguen siendo esenciales», subrayó ayer Susan Wojcicki, CEO de YouTube, en el blog de la firma.

El trabajo humano es importante «tanto para eliminar el contenido como para entrenar a los sistemas de aprendizaje automático porque el juicio humano es fundamental para tomar decisiones contextualizadas sobre el contenido», agregó y anunció que el objetivo en 2018 es superar a las 10.000 personas para esa actividad.

La decisión parte de las críticas que la plataforma recibió en este último tiempo por la proliferación de videos inapropiados para chicos, o con contenido violento y ofensivo.

Wojcicki informó que desde junio eliminaron cerca de 150.000 videos de extremismo violento, y que el 98% de los videos eliminados ahora están marcados por algoritmos.

En este punto, afirmó que los avances en la tecnología permitieron que el sitio removiera casi el 70% del contenido violento dentro de las ocho horas posteriores a su carga.

El mes pasado, empresas multinacionales, entre las que están Adidas y Deutsche Bank, retiraron sus campañas publicitarias de YouTube tras una investigación periodística que rastreó que estos anuncios fueron mostrados al lado de videos sobre niños con poca ropa y con comentarios pedófilos.

La pesquisa había estimado que decenas de miles de cuentas de «depredadores» evadieron los mecanismos de protección de la plataforma de videos para dejar «comentarios indecentes» en videos de niños -que ya fueron eliminados-, algunos de los cuales aparentemente habían sido subidos por pedófilos y otros por los mismos jóvenes, alentados por aquellos.

Consultado sobre este último tema, un vocero de YouTube había declarado a Télam que “el contenido que pone en peligro a los niños es aberrante e inaceptable».

«Tenemos políticas claras contra videos y comentarios en YouTube que impliquen cualquier tipo de explotación para los niños y hemos reforzado agresivamente nuestros controles cuando detectamos una alerta sobre este tipo de contenido», sostuvo.

Asimismo, recordó que recientemente «endurecieron» el abordaje a los videos y los comentarios que involucran a los niños y que, a veces aún sin ser ilegales, pueden causar preocupación.

«También, estamos trabajando en conjunto con Internet Watch Foundation, Ncmec y otras entidades para prevenir la utilización de imágenes vinculadas al abuso sexual infantil, evitando que siquiera sean subidas a la web y reportando dicho contenido a la justicia», agregó el vocero de la plataforma.