YouTube implementa nuevos cambios para impedir que los menores vean contenido no adecuado para ellos

| 24 SEPTIEMBRE 2020 | ACTUALIZADO: 25 SEPTIEMBRE 2020 9:15

YouTube da un paso más para intentar esquivar los problemas que arrastra tradicionalmente por servir vídeos inapropiados a menores de edad. Ha anunciado que utilizará inteligencia artificial para aplicar restricciones automáticas de edad en contenidos y además obligará a que quienes quieran ver vídeos que no sean adecuados para todos los públicos inicien sesión, de forma que pueda verificar que sean apropiados para ellos. Esto será especialmente importante en contenidos embebidos en sitios de terceros, que en estos casos ya no podrán verse sin identificación previa.

Como parte de ese esquema, YouTube empezará a pedir a usuarios europeos alguna documentación que acredite su edad, para cumplir con normativas continentales como la directiva de Servicios de Comunicación Audiovisual. Estas medidas complementan el control de edad que la plataforma ha mantenido desde hace años, cuya implementación no resultaba eficaz para atajar completamente el posible consumo de material inconveniente para quienes tengan menos de 18 años.

YouTube arrastra problemas respecto a este asunto desde hace años. En 2019 lanzó una aplicación específica para niños con el objetivo de evitar que el algoritmo de recomendación les llevara a vídeos inadecuados, pero ya entonces avisó de que no tenía capacidad para detectar todos los que cumplieran con esas características. Por esas mismas fechas tuvo que hacer frente a una multa de 170 millones de dólares para llegar a un acuerdo con la Comisión Federal de Comercio de EEUU (FTC) , que le acusaba de haber recogido de forma ilegal datos de niños y haber obtenido beneficio de ellos a través de publicidad.

Como parte de este trato, YouTube tuvo que modificar los términos de uso para los creadores de contenido, de forma que la plataforma pudiera implementar de forma efectiva la ley COPPA (Children’s Online Privacy Protection Act), promulgada en 1998 para proteger a los niños de contenidos dañinos. Eso implicó un cierto revuelo entre ellos a partir de mediados de noviembre de cara a las condiciones que todos deberían cumplir a partir de enero.

Lo esencial es que cada uno de los youtubers tendría que señalar si su contenido ha sido creado para niños o no, bajo posibles medidas punitivas de la plataforma si no lo hacían. Al indicarlo, en esos vídeos se deshabilitarían los anuncios personalizados y también los comentarios, de forma que ese material tendría una drástica reducción de monetización directa y no se vería impulsado por los mecanismos de recomendación que tienen en cuenta la actividad en los comentarios. Y además muchos creadores planteaban el problema de que su contenido no estaba especialmente dirigido a ellos pero tampoco era descartable que lo encontraran interesante.