youtube

YouTube obliga a los creadores a identificar el contenido generado por inteligencia artificial

| 20 MARZO 2024 | ACTUALIZADO: 21 MARZO 2024 11:01

En lo sucesivo, los vídeos generados mediante inteligencia artificial que tengan un aspecto verosímil tendrán que ser señalados por sus creadores al subirlos a YouTube.

En concreto, tendrán que seleccionar en ese proceso si el contenido muestra a alguien haciendo o diciendo algo que no se corresponda con la realidad, altera una grabación de un lugar o evento reales o incluye una escena que no ha sucedido.

La plataforma sigue así los pasos de otros entornos como TikTok o Facebook para intentar atajar los riesgos de desinformación y manipulación que conllevan esas piezas.

Ese peligro es especialmente acusado en la cercanía de elecciones y el año en curso es histórico porque registra al menos 70 procesos de ese tipo en diferentes partes del mundo con cientos de millones de ciudadanos llamados a votar. Entre ellos, comicios presidenciales en EEUU o al Parlamento Europeo. Y de hecho las capacidades de la inteligencia artificial generativa aparecen igualmente tipificadas como amenazas en el Informe Anual de Seguridad Nacional de 2023 que acaba de aprobar el Consejo de Seguridad Nacional español.

El requerimiento del etiquetado es una herramienta clave para reducir estos riesgos pero de momento la experiencia no está mostrando buenos resultados. Un estudio reciente del Observatorio de Internet de Stanford sobre Facebook describe el uso prevalente de imágenes manipuladas o generadas automáticamente como palanca para el incremento de seguidores de páginas, a pesar de las exigencias de la red social. En un porcentaje indeterminado de casos tienen ánimo paródico o sarcástico pero algunas personas las dan por reales al encontrárselas descontextualizadas en grupos, lo que incrementa el problema.

En el proceso de subida de un vídeo será necesario seleccionar opciones en un menú que dejen claro el concurso de esa tecnología si lo que muestra parece verosímil.

Para evitar esta situación YouTube amenaza a los infractores que puedan reincidir en no señalar la subida de esta clase de contenidos con acciones que van desde la retirada del vídeo hasta la suspensión de la pertenencia al programa Partner. Esto último cortaría la monetización publicitaria de los usuarios afectados, lo que a su vez también reduciría la posibilidad de que los anunciantes aparezcan al lado de este tipo de creaciones y los eventuales problemas de seguridad de marca asociados.

La nueva normativa no se aplica en todo caso para aquellas piezas en las que resulte evidente que no hay ánimo de réplica realista o que no tengan consecuencias problemáticas. La plataforma cita como ejemplos la creación de animaciones o la optimización automática de ajustes de iluminación o color. YouTube tampoco obligará a los creadores a revelar si han utilizado esa tecnología para generar guiones, ideas de contenidos o subtítulos automáticos.