
TikTok despide a cientos de empleados en su viraje a la moderación de contenidos con IA
La aplicación creciente de inteligencia artificial para moderar contenidos está detrás de una nueva ronda de despidos en TikTok.
Según fuentes conocedoras de la situación han confirmado a Reuters, solo en Malasia han sido eliminados más de 700 puestos de trabajo que incluían algo menos de 500 trabajadores y vacantes.
Aunque la plantilla ubicada en ese país es la más afectada, la compañía ha adelantado un impacto global sobre cientos de empleados.
No está clara la cantidad ni la distribución de las bajas forzosas, pero The Bureau of Investigative Journalism ha apuntado recientemente que al menos la cuarta parte de los 500 trabajadores de TikTok que revisan sus publicaciones problemáticas en Reino Unido perderán su empleo.
La red social china justifica estas salidas para ajustar sus equipos internos a «demandas incrementales de nuestros esfuerzos de moderación debidas a volúmenes fluctuantes, complejidad creciente, y un rango más amplio de contenido dañino y actores maliciosos».
En concreto, de cara a «utilizar tecnología avanada para conseguir mayor exactitud, consistencia y escalabilidad».
Según un portavoz de la compañía china, lo previsto es que al final de este año haya invertido en torno a 2.000 millones de dólares en todo el mundo en medidas de seguridad. Una parte sustancial de esa cantidad va dirigida a mejorar la eficiencia de los procesos automáticos con los que actualmente ataja hasta un 80% del contenido que viola su normativa interna.
La plataforma china ya elimina de manera automática el 80% de infracciones de su normativa interna.
Hasta la fecha, TikTok ha venido usando una mezcla de detección automática y revisión humana para retirar contenido inadecuado en base a subcontratas, igual que sucede con otros grandes actores del sector como Meta o Google.
Sin embargo ese modelo es intensivo en mano de obra y la inteligencia artificial hace posible una gestión a escala eventualmente más barata.
Además la actividad humana conlleva riesgos como los traumas que puede generar en las personas la exposición recurrente a contenidos duros y las compañías pueden afrontar demandas por ello que pueden suponer cuantiosas indemnizaciones. Así sucedió recientemente en Barcelona o hace algunos años en centros de EEUU.