Estas son las normas secretas de Facebook sobre sexo, terrorismo o racismo

| 22 MAYO 2017 | ACTUALIZADO: 24 MAYO 2017 13:40

¿Cuáles son las reglas de Facebook para determinar qué deben publicar o no sus más de 2.000 millones de usuarios? Las normas de la red social respecto a temas tan polémicos como el sexo, la violencia, la pornografía, el racismo o el terrorismo ya no son un secreto.

En plena lucha contra los clickbait y las noticias falsas y tratando de evitar los delitos y suicidios en directo, el diario británico The Guardian ha analizado más de 100 manuales, hojas de cálculo y diagramas que revelan como la compañía de Mark Zuckerberg trata los contenidos sensibles, que en muchas ocasiones, solo tienen 10 segundos para tomar la decisión debido al gran volumen de trabajo al que tienen que hacer frente.

Un documento dice que Facebook revisa más de 6,5 millones de informes semanales relacionados con cuentas potencialmente falsas. Con miles de diapositivas e imágenes, la red social establece las directrices que se deben llevar a cabo para eliminar el contenido hiriente, ofensivo o violento que incluyen incluso temas tan específicos como el racismo, el canibalismo o el porno por venganza.

Un modelo que ha abierto un debate entre los defensores de la libertad de expresión ya que ven a Facebook como el mayor censor del mundo y los más susceptibles que aseguran que debe controlar el contenido que cuelgan en su red.

Estas son algunas de las reglas de Facebook (muchas veces contradictorias) que los moderadores deben aplicar:

-Por ejemplo, deben ser eliminados comentarios como ‘Alguien debe darle un tiro a Trump’, ya que como presidente se encuentra en una categoría protegida, pero si permite ‘Para romper el cuello de un perro asegúrese de aplicar toda la presión en la mitad de su garganta’ porque no se considera una amenaza creíble.

-En cuanto a los vídeos sobre muertes violentas, no siempre tienen que ser borrados puesto que pueden ayudar a crear conciencia sobre determinados problemas, como una enfermedad mental.

«Los vídeos de muertes violentas son inquietantes, pero pueden ayudar a crear conciencia. Para los vídeos, creemos que los menores necesitan protección y los adultos necesitan una opción. Marcamos como vídeos perturbadores «la muerte violenta de los seres humanos», recogen los archivos desvelados.

«Facebook no puede mantener el control de su contenido», asegura una fuente interna. «Ha crecido demasiado y muy rápido».

Dicho material debe estar «oculto a menores de edad», pero no se eliminará de forma automática, ya que puede «ser valiosa en la sensibilización de las aflicciones de autolesión y crímenes de guerra o enfermedad mental y otras cuestiones importantes».

-Algunas imágenes de abuso físico no sexual y de intimidación de niños tampoco tienen que ser eliminadas a menos que haya un componente sádico o de celebración. Es decir, igual que en el caso anterior, las publicaciones pueden mantenerse para crear conciencia. Al mismo criterio responde el permiso de compartir imágenes de animales torturados, si están marcadas como «perturbadoras».

-La desnudez sigue siendo un conflicto. Se puede compartir arte que muestre desnudez o actividad sexual si «está hecha a mano», pero si se trata de arte digital no estará permitido.

-Se permiten vídeos de abortos, siempre y cuando no haya desnudos

-Facebook permitirá retransmisiones en vivo de intentos de autolesión, ya que «no quiere censurar o castigar a personas en peligro».

-Y la polémica continúa cuando el que cuelga estos contenidos tiene más de 100.000 seguidores lo que lo designa como figura pública y se le niega las protecciones dadas a los privados.

Facebook reconoce que «no todo el contenido desagradable o molesto viola las normas de la comunidad». Según Monika Bickert, jefe de gestión de política global de la red social, el servicio tiene casi 2.000 millones de usuarios y es difícil llegar a un consenso sobre lo que se debe permitir.

«Tenemos una muy diversa comunidad mundial y la gente va a tener ideas muy diferentes acerca de lo que está bien para compartir. No importa dónde se trace la línea que siempre van a haber algunas áreas grises. Por ejemplo, la línea entre la sátira y el humor y el contenido inadecuado a veces es muy gris», aseguró a The Guardian.