youtube

YouTube eliminó más vídeos que nunca durante el segundo trimestre en ausencia de los moderadores

| 27 AGOSTO 2020 | ACTUALIZADO: 28 AGOSTO 2020 9:56

Uno de los efectos relevantes de la pandemia en plataformas sociales ha sido el aumento de contenidos borrados automáticamente por procesos que habitualmente colaboraban con personas que no pudieron trabajar. YouTube ha confirmado esta tendencia en su último informe de transparencia, en el que figura la cantidad más alta de vídeos eliminados desde que lo realiza: 11,4 millones. La compañía lo explica diciendo que “con una capacidad muy reducida de revisión humana debida al COVID-19, tuvimos que escoger entre posible cumplimiento insuficiente y posible cumplimiento excesivo”.

Y el resultado de ese dilema fue un nivel de exigencia mayor en el que la capacidad de contextualizar y la discrecionalidad de los moderadores fueron reemplazadas por procesos automáticos mucho menos flexibles. Todos esos empleados trabajan en oficinas especialmente habilitadas para la tarea, de forma que ese trabajo no podía realizarse desde casa para evitar riesgos como la exposición de información o las posibles consecuencias de ver vídeos muy duros sin ayuda profesional a la que recurrir.

Para equilibrar la situación, YouTube reforzó el área que maneja las apelaciones. Ese es el equipo que recibe las quejas de creadores cuyos contenidos hayan sido bloqueados o eliminados, quizás de manera incorrecta. Los vídeos sujetos a peticiones de revisión se duplicaron hasta los 325.000. Y como resultado la plataforma repuso más de 160.000, lo que cuadruplica el número de contenidos que había rescatado en el trimestre anterior. Aquí la plataforma aclara que una parte indeterminada de los contenidos restablecidos en el segundo periodo del año habían sido objeto de reclamación en el anterior.

La eliminación automática se dejó notar especialmente en categorías de moderación muy concretas. En contenidos que el sistema detectó que ponían en riesgo la seguridad de niños o incluían extremismo violento se registró un aumento superior al 400% frente al trimestre anterior. Esa cifra incluyó algunos falsos positivos que la empresa dar por buenos porque “aceptamos un nivel de precisión menor para garantizar que estamos eliminando tantos vídeos que violen nuestra normativa como sea posible”.

La participación de moderadores humanos en YouTube es importante no solo porque indican si lo que los procesos automáticos han marcado es realmente punible o no según las normas. Su trabajo sirve para entrenar esos mismos protocolos y refinar los automatismos para que sean cada vez más capaces de identificar vídeos inadecuados sin incluir otros que no incumplen el reglamento.