youtube

Mozilla aflora el lado oscuro del algoritmo de recomendación de YouTube

| 8 JULIO 2021 | ACTUALIZADO: 9 JULIO 2021 9:02

Entre julio de 2020 y mayo de 2021 hasta 37.380 personas usaron una extensión de Mozilla llamada RegretsReporter que analizaba los vídeos de YouTube que hubieran preferido no ver y las circunstancias en las que llegaron hasta ellos. Ese conjunto de experiencias ha tomado forma en un estudio que apunta directamente a las recomendaciones automáticas de la plataforma como fuente mayoritaria de ese consumo del que arrepentirse. Muchos de esos contenidos sugeridos ni siquiera cumplían con la normativa interna de YouTube.

Los voluntarios denunciaron un total de 3.362 vídeos procedentes de 91 países y los clasificaron sobre todo como desinformación, violencia, discurso del odio, spam o timos. En un 71% de los casos accedieron a ellos mediante recomendaciones del servicio y de hecho esas sugerencias tenían un 40% más de posibilidades de ser reportadas que aquellos contenidos que los propios usuarios buscaban. Un 4,3% de ellas ni siquiera tenía relación con lo consumido previamente.

El 9% de los vídeos denunciados tras haber aflorado por una recomendación ha sido eliminado de YouTube desde entonces, no sin antes haber recabado 160 millones de visualizaciones de forma conjunta. Precisamente otra de las conclusiones del experimento es que esos contenidos controvertidos funcionan especialmente bien en la plataforma, hasta el punto de que obtienen en promedio un 70% más de reproducciones diarias que otros vídeos consumidos por los participantes.

Un estudio realizado gracias a más de 37.000 voluntarios concluye que la mayor parte del contenido cuestionable de la plataforma aparece vía recomendaciones automáticas.

El estudio apunta igualmente que el fenómeno se dio de forma irregular en función del idioma. Países como Brasil, Alemania o Francia, en los que el inglés no es la lengua principal, registraron hasta un 60% más de reportes. Contribuye a esa cifra de manera notable el contenido relacionado con la pandemia que se encontraron los voluntarios no angloparlantes, con una incidencia mayor que en países donde se usa mayoritariamente el inglés.

Ante esos resultados, Mozilla concluye que las plataformas deberían someter a auditorías externas sus sistemas de recomendación, así como publicar información sobre su funcionamiento e informes de transparencia. Para ello los legisladores deberían forzarlas a crear herramientas que lo permitan y proteger a periodistas o investigadores que accedan a esa información mediante métodos alternativos. Y también recomienda a los usuarios que revisen la configuración de sus datos para garantizar que tienen el control.

Este trabajo consolida el interés de Mozilla por estudiar las experiencias negativas que los usuarios puedan tener en YouTube. Su germen fue una campaña de 2019 con testimonios de diferentes personas que tenían en común un resultado no deseado en esa plataforma. Una parte relevante de ellas tenía una relación directa con las dinámicas de recomendación, que pueden generar las denominadas “madrigueras de conejo”.

Así es como se conoce a las sugerencias encadenadas que llevan a los usuarios a profundizar en contenidos que hubieran preferido no encontrarse en un primer momento y que están detrás de fenómenos como la autoradicalización. Otro aspecto clave sobre ellas es la posible incidencia sobre menores, algo en lo que la plataforma ha ido trabajando a lo largo de los años para evitar problemas.