redes sociales

La verificación agregada de los usuarios puede ser tan útil como la de profesionales en plataformas

| 13 OCTUBRE 2020 | ACTUALIZADO: 14 OCTUBRE 2020 9:12

El mayor problema al que se enfrentan todas las redes sociales para reducir la desinformación que acogen es el de la escala. A medida que la cantidad de contenido que reciben aumenta, se complica más la labor de discriminar la información incorrecta o falsa para las plataformas y las organizaciones que colaboran con ellas. Pero un nuevo estudio del Instituto Tecnológico de Massachusetts (MIT) sugiere ahora que el concurso de los usuarios de esos servicios puede ayudar a identificar esos contenidos problemáticos de manera eficiente.

Esa investigación se ha basado en seleccionar 207 artículos que habían sido previamente identificados como desinformativos por Facebook y exponerlos a dos grupos diferentes de trabajo para su comprobación: por un lado, tres profesionales de la verificación que aplicaron su metodología habitual de trabajo para determinar si realmente la información no era real; y por el otro, 1.128 ciudadanos de EEUU reclutados a través de Mechanical Turk, un foro de Amazon en el que se publican vacantes laborales relacionadas con el uso de la inteligencia humana para distintas tareas, que se basaron en el titular y la entradilla para decidir.

EL resultado del experimento es esperanzador para las plataformas ya que, según sus autores, “un número relativamente pequeño de personas puede producir un juicio agregado, dado solo el titular y el encabezado de un artículo, que se aproxima a los juicios individuales de los verificadores de hechos profesionales”. Eso no implica que el criterio de los usuarios sea suficiente o siempre acertado, ya que el estudio refleja que es necesario un equilibrio ideológico en ese colectivo para que resulte útil. Pero abre una vía suplementaria de actuación que puede ayudar con alertas tempranas a redes sociales y organizaciones que verifican.

La conclusión es relevante en la medida en que la labor de detectar y comprobar desinformación en estos servicios resulta inabarcable para los verificadores que trabajan con ellos. Un estudio de The Hill indicaba en enero que las 26 personas a tiempo completo que suman las seis organizaciones de ese tipo en EEUU apenas pueden trabajar sobre 200 historias al mes en Facebook. Eso es solo una parte indeterminada de los contenidos problemáticos que pueden llegar a volcarse en una plataforma que en su último trimestre declaró 1.785 millones de usuarios activos diarios en todo el mundo.

Además el estallido de la crisis del coronavirus ha agudizado el problema, ya que en julio Avaaz calculó que la desinformación sobre la enfermedad estaba cuadruplicando en impresiones a los contenidos legítimos sobre ella en Facebook. La incorporación del criterio agregado de usuarios permitiría además a los verificadores ampliar su actividad, ya que esa plataforma les confirmó en agosto que podrían operar sobre editoriales y opiniones desinformativos en este contexto.