
Meta eximió de moderación estándar a grandes anunciantes para evitar falsos positivos
Los errores por exceso en la moderación de contenidos de Meta, asumidos recientemente por su consejero delegado Mark Zuckerberg, están detrás de un trato preferencial a grandes anunciantes recogido en documentación de 2023 a la que ha tenido acceso Financial Times. Según se lee en ellos, la compañía hizo que las campañas de esas empresas no pasaran los filtros habituales para proteger el negocio que generan.
En concreto Meta estableció un baremo de «grandes planificadores» a partir de 1.500 dólares de gasto diarios. Las empresas que invertían por encima de esa cifra tenían consideración de «P95 Spenders», por encontrarse en el 5% de mayor planificación, y se les eximía de «restricciones publicitarias» automáticas. Sus campañas serían revisadas por personas para evitar posibles falsos positivos.
Según la documentación, el gigante de la web social había descubierto que sus sistemas automatizados habían señalado incorrectamente a algunas de esas cuentas de alto gasto por violaciones de la normativa interna. A preguntas de Financial Times un portavoz de Meta respondió que esas compañías estaban sujetas a un riesgo proporcionalmente mayor de notificaciones erróneas de infracciones.
Además de los «P95 Spenders», la documentación habla igualmente de salvaguardas para cuentas comerciales que generan más de 1.200 dólares durante un periodo de 56 días o usuarios individuales que gastan más de 960 en ese mismo periodo. En todos esos casos los procesos fueron diseñados para «suprimir detecciones» en función de características concretas como el gasto.
Meta atribuye la medida a que el baremo del gasto es un indicativo fiable para determinar que, al tener mayor alcance comprometido, las consecuencias de eliminar por error esos anuncios o bloquear la cuenta que los lanza serían más graves. De hecho Meta ha reconocido que había impedido que algunos de esos grandes planificadores fueran deshabilitados por sus sistemas automáticos.
Lo que el diario económico no ha podido confirmar es si esa práctica se ha desarrollado solo durante un periodo de tiempo o tiene carácter continuo. Meta no lo ha revelado, pero sí ha expuesto que el protocolo revelado muestra problemas de la moderación automática a gran escala de los que ya ha hablado públicamente en más de una ocasión.
La preocupación interna por el funcionamiento de esos sistemas potenciados por inteligencia artificial es un tema recurrente en los últimos años, sobre todo por la preocupación expresada por los republicanos. Si bien las quejas habituales son por falsos positivos que retiran contenido no problemático, el consejo asesor que Meta creó para tomar las decisiones más difíciles en moderación de contenidos también ha alertado de falsos negativos.
De hecho la documentación filtrada en 2021 por la antigua trabajadora de la compañía Frances Haugen a The Wall Street Journal indicaba que la compañía tenía un sistema interno diseñado para garantizar que las publicaciones de políticos, periodistas y usuarios célebres no se eliminaran por error. Y se usaba a veces para proteger a algunos de esos usuarios cuando realmente habían quebrantado la normativa interna.