Un reciente anuncio da cuenta de la preocupación de Google por barrer con el contenido violento que se publica en YouTube, muchas veces enmascarado en contenido familiar o para niños. Según informó Susan Wokcicki, presidenta ejecutiva del portal, en 2018 tendrán 10 mil empleados dedicados a la moderación de los videos en YouTube.
Así, el extenso “batallón” de moderadores humanos trabajará en conjunto con los sistemas automáticos diseñados y aplicados por Google. En rigor, los algoritmos de aprendizaje han colaborado en un 70 por ciento de los casos en los que se ha detectado contenido extremista, informan desde Google.
De acuerdo a la ejecutiva, el objetivo es llevar a la práctica las lecciones aprendidas para barrer el contenido violento y “otros contenidos problemáticos”. De este modo, procuran que los videos que infringen las políticas de la compañía tengan mayores dificultades para aparecer y permanecer en el portal.
Naturalmente, este movimiento de Google también da cuenta de una preocupación de orden comercial. Tal como recuerda CNET, hace algunas jornadas un anunciante de YouTube se marchó del portal de Google luego de la aparición de comentarios inapropiados en videos en los cuales aparecen niños. Luego de esta denuncia, se eliminaron cientos de cuentas, miles de videos y cientos de miles de comentarios.
También se prevén cambios en lo que refiere a los videos elegibles para contener publicidades. “Estamos planeando aplicar criterios más estrictos, llevar a cabo una curaduría más manual, y al mismo tiempo aumentar significativamente nuestro equipo de revisores de anuncios para garantizar que los anuncios solo se publiquen donde deberían”, señaló al respecto Wokcicki.
Fuente: Engadget