Así son las publicaciones 3D de FacebookMark Zuckerberg.

Facebook fija un cordón sanitario para evitar nuevas injerencias electorales

| 21 ENERO 2019 | ACTUALIZADO: 22 ENERO 2019 7:32

Facebook será más estricto con la publicidad política que permite en su plataforma. Establecerá un cordón sanitario de cara a evitar posibles injerencias en las elecciones programadas para los próximos meses en la Unión Europea, India, Nigeria o Ucrania.

La compañía pretende de este modo prevenir nuevos casos de interferencia electoral con bots y campañas promocionadas, como los detectados en el referéndum del Brexit o las elecciones presidenciales de Estados Unidos.

Algunas de las medidas anunciadas por Facebook implicarán, en el caso de Nigeria y Ucrania, que sólo permitirá emitir publicidad electoral desde los propios países; mientras que en la India lanzará una biblioteca online de anuncios que permitirá consultar datos certificados de las empresas publicitadas.

Todos estos sistemas de autorización y transparencia tendrán su propia adaptación al proceso de elecciones al Parlamento Europeo del próximo mes de mayo.

Con una comunidad que supera los 2.000 millones de usuarios en todo el mundo, hace mucho que Facebook trascendió el plano tecnológico y pasó a desempeñar un papel activo en el tablero político y democrático. Hasta la fecha se le ha atribuido un rol de antagonista, derivado de la serie de escándalos en relación con su actuación en materia de privacidad y control de datos.

El historial de escándalos que acumula Facebook ha dañado profundamente su imagen, provocando una caída en Bolsa de más del 30% de su valor, unos menores márgenes de negocio y una mayor presión regulatoria. El propio Mark Zuckerberg reconoció en abril del año pasado ante el Congreso de los Estados Unidos que la regulación de plataformas como la suya era «inevitable».

Resulta lógico pensar que el alma máter de Facebook se estaba refiriendo a la puesta en marcha de mecanismos de control interno que le permitan recuperar la confianza de las marcas y, de paso, desviar la atención mediática y de los políticos pasada la tormenta. En este sentido, el Reuters Institute for the Study of Journalism ha publicado un informe con recomendaciones que pueden convertir en la red social en un mejor foro para el espacio público y la democracia.

Decálogo para arreglar la plataforma

El centro de investigación centra su objeto de análisis en tres áreas: política de contenido, que establece las reglas para el discurso y la actividad permitida en Facebook; noticias, el algoritmo que determina la información a la que llegan los usuarios; y la gobernanza, a tenor de la creciente preocupación sobre la falta de control de la plataforma por parte de sus responsables.

Mirando de pasada algunas de las cuestiones que han suscitado más atención en los últimos meses, el citado informe señala nueve caminos por los que la plataforma puede transitar para dejar atrás la sombra de la sospecha.

El primero pasaría porque la plataforma reemplace los opacos procesos de moderación aplicados hasta el momento por medidas más específicas, como sería definir claramente qué se entiende por discurso de odio para identificar más rápidamente comentarios o contenidos que lo fomenten. En resumen, procedimientos en línea con los anuncios esta semana.

Como consecuencia de lo anterior, otro de los pasos a dar por parte implicaría la contratación de revisores de contenidos mejor preparados, aún cuando el número se ha duplicado en el último año. «Facebook necesita más revisores de contenido humano, con una capacidad de supervisión con experiencia política», especifica el informe.

Este punto lleva directamente a todas las demás propuestas: una mayor transparencia en la toma de decisión, expandir y mejorar el proceso de apelaciones sobre la información y contenidos que permite, promocionar controles más precisos de noticias y la verificación, establecer mecanismos de auditoría regulares y crear un grupo asesor externo.

«Hay muchas cosas que una plataforma como Facebook puede hacer en este momento para abordar las preocupaciones públicas generalizadas y hacer más para cumplir sus responsabilidades de interés público», reflexiona el autor del informe, Timothy Garton Ash. Desde su punto de vista, «un pequeño cambio en el algoritmo de News Feed, o en la política de contenido, puede tener un impacto más rápido y más amplio que el de cualquier legislación individual (o incluso de toda la UE)».