Ana OrmaecheaAna Ormaechea

Así funciona VerificAudio, la herramienta de Prisa basada en IA que detecta audios falsos

| 12 NOVIEMBRE 2024 | ACTUALIZADO: 13 NOVIEMBRE 2024 8:32

De los múltiples desafíos globales a los que están llamados a afrontar los medios de comunicación, hay dos que han cobrado una fuerza superlativa en los últimos años: la irrupción de la Inteligencia Artificial y el aumento de la desinformación.

Prisa Media ha aunado estos dos fenómenos para crear VerificAudio, la herramienta que detecta audios falsos. Un proyecto pionero sobre el que la dueña de La SER lleva un año trabajando, tanto para uso interno, en la red de emisoras de España y Latinoamérica, como uso externo, con colaboraciones con medios y agencias como Reuters TV.

La CDO de radio de Prisa Media, Ana Ormaechea, defendió ayer en el evento Madrid AI Forum 2024, organizado por WAN-IFRA, el valor que proporciona la herramienta a nivel informativo y democrático.

VerificAudio cuenta con el apoyo de Google y Minsait y presta servicio a medios y agencias internacionales como Reuters TV.

Ormaechea advirtió que actualmente «se puede clonar una voz por menos de 20 euros al mes», un proceso que «se democratiza de una forma muy peligrosa«. «Comprobamos que la desinformación también podía ser auditiva y desde Prisa Media, como líder en la generación de audio en español en el mundo, pensábamos que era nuestra responsabilidad levantar la mano«.

«Nos pusimos a trabajar para defender lo que más nos importa a los medios de comunicación: seguir manteniendo esa relación de confianza y credibilidad con nuestros oyentes».

De la mano de la IA crearon una prueba piloto, que ha evolucionado hasta convertirse en «una herramienta robusta». VerificAudio cuenta con el apoyo de Google y Minsait, y se está instalando en todas las emisoras de Prisa Media de manera transversal. Los periodistas de Caracol Radio y W Radio (Colombia), ADN (Chile), W Radio (México) y Cadena SER (España), ya lo tienen en sus redacciones.

El programa de detección de deepfakes creados con voces sintéticas o alteradas presenta dos funciones: comparador e identificador. El primero permite subir el audio real y cotejarlo con el audio sospechoso para que el software detecte desviaciones. «Nos dice si es el mismo interlocutor o no. Ves un porcentaje de coincidencia. Es francamente complicado deepfake identificar al 100% una clonación«.

El segundo ofrece un análisis pormenorizado a partir de machine learning, cada diez segundos, sobre su frecuencia, ancho de banda o tonalidad, para verificar la autenticidad del audio.

Con este modelo, defiende Ormaechea, Prisa Media busca asegurar «un ecosistema informativo férreo». «Los malos van muy rápido y si no seguimos adaptando la herramienta, nos van a pasar por encima». «La IA nos tiene que ayudar a seguir generando confianza, y hasta ahora no teníamos nada parecido en el mercado«, concluyó.