Guillermo Serrano Peña.

Facebook comparece en el Senado: «No somos árbitros de la verdad»

| 7 JUNIO 2021 | ACTUALIZADO: 8 JUNIO 2021 9:03

Facebook compareció la semana pasada en el Senado ante la Comisión Mixta de Seguridad Nacional para informar sobre las medidas que toma la red social en su lucha contra la desinformación. Su portavoz en la Cámara Alta fue Guillermo Serrano Peña, mánager de Políticas Públicas para España y Portugal de Facebook y ex consultor de Kreab en materia de Asuntos Públicos.

El directivo de la red social comenzó su exposición reconociendo que la desinformación «no es un fenómeno nuevo, si bien es cierto que con el desarrollo de Internet y las redes sociales ha crecido en intensidad, alcance y sofisticación».

El portavoz comentó que la lucha contra los bulos «es un asunto de la máxima prioridad» para Facebook, pero a continuación explicó que esta batalla «tiene el riesgo de impactar en una serie de derechos fundamentales, como es la libertad de expresión, piedra angular de nuestra democracia». Es por ello que «no es posible ni deseable que una red social se erija en arbitro de la verdad. Este rol no nos corresponde», sostuvo ante un grupo de senadores.

Conseguir un equilibrio

Por tanto, el gran reto en esta materia es -según Facebook- «conseguir un equilibrio en tener una plataforma segura y auténtica, a la vez que se respeta los derechos de la libertad de expresión de los usuarios que acceden a nuestras plataformas».

Tras estas consideraciones previas, Guillermo Serrano pasó a relatar las medidas que toman en Facebook para atajar la desinformación.

En materia de contenidos falsos (missinformation), la estrategia de Facebook es eliminar el contenido que viola las normas de la comunidad (son censurados vídeos manipulados o deepfakes, información falsa en procesos electorales o sobre el COVID…). El representante de las red social informó que desde el inicio de la pandemia se han eliminado 18 millones de contenidos en Facebook e Instagram a nivel mundial.

La compañía de Mark Zuckerberg tiene una estrategia diferente ante los contenidos falsos que no violan su normas comunitarias pero que sí socavan la autenticidad y seguridad de la plataforma. En estos casos, las actuaciones de Facebook van encaminadas a reducir la visibilidad de este tipo de piezas. Aquí, la red social se apoya en fact chackers que han sido previamente certificados por la International Fact-Checking Network. En este ámbito, Facebook trabaja con más de 80 organizaciones independientes de verificación de contenidos. En España lo hace con cuatro entidades: EFE Verifica, Maldita, Newtral y la AFP.

Para identificar este tipo de contenidos, Guillermo Serrano precisó que Facebook utiliza medios automatizados (inteligencia artificial) y también la actuación de los revisores de contenidos, las denuncias de los usuarios y la actividad de los propios fact chekers. Una vez identificados, el siguiente paso es la revisión, donde los verificadores «tienen la última palabra», comentó el portavoz de Facebook. Si se llega a la conclusión de que es falso, entonces Facebook reduce drásticamente su visibilidad, pero sin eliminarlos para así respetar el derecho de expresión. Y si una página contiene repetidamente contenidos falsos, también se procede a reducir su visibilidad y, en último caso, se limita su capacidad de comprar anuncios o monetizar su actividad.

Facebook se vale de los conocidos como los fact checkers para verificar los contenidos potencialmente falsos.

El tercer pilar de Facebook para lucha contra los contenidos falsos es la información. Cuando una pieza es catalogada como falsa, se inserta un velo a la publicación caracterizándola como bulo y se añade información sobre por qué la entidad verificadora ha llegado a esa conclusión. Si aun así el usuario quiere compartir ese contenido, Facebook avisa con un pop-up en el que recuerda que esa pieza ha sido tachada de falsa por un fact checker. El 95% de los usuarios a los que se le presenta este mensaje emergente no continuaron en compartir la pieza, informó su Serrano.

En este mismo ámbito de la información, otra de las acciones de Facebook es conectar a los usuarios directamente con fuentes oficiales, como es el caso de la OMS o el Ministerio de Sanidad en relación con la pandemia. Así lo han hecho desde el inicio de la crisis sanitaria con 2.000 millones de personas en 189 países. En España, visitaron el Centro de Información de COVID 19 de Facebook un total de 1,3 millones de personas solo en marzo de 2021. «Con esto queremos que las personas puedan conformar su opinión libremente, pero de manera informada», señaló el directivo de Facebook.

«Operaciones de influencia»

El representante de la red social también se detuvo en el Senado a explicar la estrategia de Facebook ante las denominadas «operaciones de influencia», que son aquellos «esfuerzos coordinados que pretender manipular o corromper el debate publico para lograr un objetivo estratégico», según define la propia compañía. En este ámbito, Facebook dice haber triplicado el número de personas que trabajan en seguridad y protección, hasta las 35.000 personas a nivel global. Como resultado, en los últimos cuatro años han desmantelado 150 operaciones encubiertas, que han podido ser ejecutadas desde gobiernos hasta por redes internacionales coordinadas. Además de ello, han eliminado 1.300 millones de cuentas falsas en el primer trimestre de este año. El 98% gracias a la automatización.

Precisamente, para detectar estas operaciones de influencia, Facebook se vale de sus expertos en seguridad y, sobre todo, de sus métodos automatizados.

Solo en el ámbito de mantener la integridad de las elecciones, trabajan en Facebook 40 equipos formados por más de 500 personas que trabajan en exclusiva en la protección de los procesos electorales. Nuevamente, para prevenir la injerencia política, la estrategia vuelve a ser la de eliminar el contenido dañino, reducir la visibilidad de bulos e incrementar la transparencia. En este último punto, Facebook destaca la información detallada que ofrece sobre la publicidad política que se difunde en la plataforma (inversión económica, quién paga el anuncio…).