Documentación interna de Facebook reconoce consecuencias negativas por el cambio de algoritmo que hundió el tráfico a medios

| 20 SEPTIEMBRE 2021 | ACTUALIZADO: 21 SEPTIEMBRE 2021 9:06

En enero de 2018 Facebook comunicó una actualización de algoritmo para aumentar la visibilidad de “interacciones sociales significativas” de amigos y familiares, en línea con otro similar realizado en 2016. El objetivo era reanimar la participación en vista del declive registrado a lo largo del año anterior, que llegó a hacer temer que los usuarios dejasen de utilizar la aplicación. Como consecuencia se hundió el tráfico derivado a medios y se disparó la producción / difusión de contenido divisivo, desinformativo y dañino, algo reconocido internamente por la plataforma.

Eso es lo que indica The Wall Street Journal, que ha tenido acceso a documentación en la que empleados de Facebook reflejaron que los cambios hicieron peor a la red social y generaron externalidades negativas para la sociedad en diferentes aspectos: por un lado potenciaron de repente las publicaciones tóxicas relacionadas con posiciones políticas, lo que hizo más extremos y negativos los mensajes de algunas formaciones para aprovechar esa ventana de difusión; por otro se disparó la circulación de información falsa o incorrecta coincidiendo con el descenso pronunciado de visibilidad de la generada por medios, que tuvieron que empezar a invertir en promover contenidos de forma pagada.

Los documentos en poder del diario económico de Rupert Murdoch indican que Mark Zuckerberg fue alertado de estas circunstancias y no aceptó las soluciones propuestas para incidir sobre ellas. Se ciñó a su teoría sobre la reducción de consumo pasivo en Facebook, que desbarató en poco tiempo el giro al formato vídeo que no pocos medios habían hecho poco antes para aprovechar el impulso que ofrecía la plataforma.

Lo que debía mejorar los niveles de interacción en la plataforma en base a conversaciones más cercanas derivó en una ventana de oportunidad para actores con malas intenciones.

La base del problema, según los archivos internos, era la propia fórmula por la que se potenciaba o no la visibilidad de cualquier contenido. Su diseño impulsaba por defecto las publicaciones más controvertidas, ya que eran las que más interacciones provocaban. En la práctica eso suponía que todo aquello que estimulara reacciones poco sanas tendría mayor oportunidad de aparecer ante más gente, lo que mejoró las métricas internas a costa de muchos usuarios pensaran que había caído la calidad de lo que Facebook les mostraba.

Eso es lo mismo que denunció Jonah Peretti, fundador de BuzzFeed, en un correo enviado a un ejecutivo de la red social unos meses después de los cambios. En él apuntaba que había estudiado sus números y los de otros medios para concluir que el algoritmo no premiaba realmente el contenido que promovía interacciones sociales significativas, sino las publicaciones desproporcionadamente divisivas. En ese contexto sus periodistas sentían que se veían abocados a hacer mal contenido o exponerse a un mal rendimiento, un dilema que ha marcado la actividad en redacciones hasta tiempos recientes.

Estas controversias son en parte responsables de que desde 2018 haya habido diferentes retoques en el algoritmo de Facebook que han reducido la visibilidad de contenido de medios y publicaciones de carácter político. El alcance de estas últimas está en entredicho en España, ya que la red social está probando a recortarlo para ofrecer una experiencia menos problemática, como ya viene haciendo en EEUU.

Precisamente uno de los hitos negativos reflejados en la información interna aflorada por The Wall Street Journal es el de la conversación sobre Cataluña en los meses posteriores a la frustrada declaración de independencia en octubre de 2017. Los investigadores de Facebook detectaron que todos los partidos elevaron el tono en la plataforma para conseguir hacer llegar sus mensajes a más gente. Eso va en consonancia con el 43% de incremento en insultos y amenazas en páginas públicas dedicadas a política y asuntos sociales en España en ese mismo rango de tiempo, según una investigación de la empresa de protección de riesgos digitales Constella Intelligence.