Así se pueden hacer secretas las conversaciones en Facebook Messenger

Facebook da a conocer los próximos pasos para moderar el contenido online

| 20 FEBRERO 2020 | ACTUALIZADO: 20 FEBRERO 2020 11:33

Facebook ha lanzado un White Paper (Libro Blanco) con ideas para regular el contenido online en el futuro. Pero la mayoría de los conceptos que contiene son políticos, o iniciativas que ya están vigentes o en funcionamiento en la propia red social.

La vicepresidenta de política de contenido de Facebook, Monika Bickert, presentó la publicación y señaló que “en la última década, Internet ha mejorado las economías, reunificado familias, recaudado dinero para obras de caridad y contribuido a lograr un cambio político. Sin embargo, también ha facilitado compartir contenido dañino, como el discurso del odio o propaganda terrorista. Se está debatiendo cómo responsabilizar a las plataformas, particularmente en sus esfuerzos por mantener a las personas seguras y proteger los derechos fundamentales como la libertad de expresión».

Bickert añadió que el libro plantea varias preguntas que son clave en el debate sobre cómo regular el contenido en línea. La primera de ellas es, ¿cómo puede la regulación alcanzar mejor el objetivo de reducir el contenido dañino mientras se preserva la libre expresión?

En este caso Facebook sugirió sistemas que incluyan canales fáciles de usar para informar y de supervisión. Por ejemplo, cualquier usuario de Facebook ya puede informar cualquier contenido y explicar por qué lo informa.

La segunda pregunta es ¿cómo pueden las regulaciones mejorar la responsabilidad de las plataformas? La compañía de Mark Zuckerberg sugirió requisitos para las empresas, como publicar sus estándares de contenido, consultar con las partes interesadas antes de cambios significativos y crear canales de apelación para las decisiones de eliminar o no eliminar contenido.

Por otra parte, Bickert contó que los gobiernos deberían crear reglas para abordar la complejidad sobre las diferencias entre las leyes que restringen la moderación del discurso y el contenido de Internet. Y esas leyes deberían reconocer las preferencias de los usuarios, las variaciones entre los servicios de Internet y la capacidad de hacerlas cumplir a escala, permitiendo para flexibilidad a través del lenguaje, tendencias y contexto.

Además, la vicepresidenta de política de contenido de Facebook discutió cuatro desafíos principales, “las plataformas privadas de Internet se enfrentan a preguntas cada vez mayores sobre cuán responsables son por las decisiones que toman. Escuchan a los usuarios que desean que las empresas reduzcan el abuso, pero no infrinjan la libertad de expresión. Escuchan a los gobiernos, que quieren que las empresas eliminen no solo el contenido ilegal, sino también el contenido legal que puede contribuir a dañar, pero se aseguran de que no estén sesgados en su adopción o aplicación de reglas. Ante las preocupaciones sobre el acoso o la explotación sexual infantil o el reclutamiento de terroristas, por ejemplo, los gobiernos pueden dudar de la efectividad de los esfuerzos de una empresa para combatir tales abusos o, peor aún, no pueden determinar satisfactoriamente cuáles son esos esfuerzos».

Bickert señaló la naturaleza transfronteriza de las plataformas sociales y el hecho de que la mayoría mantiene un conjunto de políticas globales, en lugar de políticas específicas de cada país que interfieren con las experiencias que brindan.

Finalmente, desde Facebook se señaló que garantizar la responsabilidad en los sistemas y procedimientos de moderación de contenido será la mejor manera de crear incentivos para que las empresas equilibren de manera responsable valores como la seguridad, la privacidad y la libertad de expresión.