Un informe apunta los efectos nocivos de la subcontratación de moderadores en redes sociales

| 10 JUNIO 2020 | ACTUALIZADO: 11 JUNIO 2020 9:12

Cada día miles de personas se encargan de impedir la propagación de contenidos dañinos o punibles en redes sociales y, en casi todos los casos, tienen algo en común: trabajan para empresas subcontratadas por esas plataformas. Un estudio realizado por la Escuela de Negocios Stern de la Universidad de Nueva York (NYU) refleja los problemas que se derivan de esa dinámica, tanto para la sociedad como para quienes desempeñan esta función.

En concreto el informe identifica tres efectos nocivos esenciales: la falta de atención de las plataformas a las dinámicas perversas que genera lo que publican algunos de sus usuarios; la vulnerabilidad de los moderadores; y los procesos de trabajo inadecuados que complican las tomas de decisiones sobre contenidos controvertidos. Se trata de patrones transversales a todas las redes sociales, pero la investigación presta especial atención a Facebook, cuyas dinámicas han demostrado ser las más polémicas por funcionamiento y consecuencias.

Además, esos problemas se agravan ante el volumen del contenido que tienen que revisar y el tiempo que pueden dedicar a cada unidad. El informe detalla que actualmente 15.000 personas moderan en Facebook e Instagram, otras 10.000 supervisan lo que se publica en YouTube y otros productos de Google y apenas 1.500 están pendientes de lo que sucede en Twitter. Pese a la ayuda que les ofrecen los sistemas automáticos de vigilancia, que han estado más activos durante la crisis del coronavirus porque los moderadores no podían acudir al trabajo, esos profesionales afrontan una cantidad inasumible de piezas para revisar.

Ante esas dificultades, los autores del informe realizan varias recomendaciones, que sobre todo van en línea con la contratación directa de un número mayor de moderadores, a los que además se les ofrezca la mejor atención médica posible en su puesto de trabajo. Además indican que sería adecuado tener una estructura de supervisión más centralizada que preste especial atención a países con escenarios de conflicto social, para cuya población la ausencia de moderación cualificada en redes sociales muy utilizadas puede suponer muchos problemas suplementarios. Esto es especialmente importante en lo relativo a la desinformación y sus consecuencias.

A mediados de mayo Facebook alcanzó un acuerdo por el que se comprometía a pagar 52 millones de dólares a antiguos y actuales moderadores en concepto de compensación por los problemas de salud mental que les había provocado la actividad. Ese arreglo supuso un punto de inflexión en la consideración de estos trabajadores, que se enfrentan diariamente a contenidos que en algunos casos les generan estrés postraumático.