The Purple Check, una inteligencia artificial para informar mejor sobre violencia de género lanzada por LLYC

| 4 MARZO 2024 | ACTUALIZADO: 4 MARZO 2024 13:01

LLYC ha lanzado The Purple Check, una inteligencia artificial que ayuda a hablar e informar mejor sobre violencia de género.

Para el funcionamiento de la herramienta hay que introducir un titular y la solución comprueba si las palabras que se han utilizado están en línea con las reglas de buenas prácticas derivadas de las guías United Nations Development Programme (UNDP) y Mediterranean Network of Regulatory Authorities (MNRA). En caso de que no, recomendará cómo decir lo mismo para informar sin promover la desigualdad y así devolver el foco a la comunicación.

herramienta de LLYC

The Purple Check ha surgido a raíz de las conclusiones del informe ‘Desenfocadas: Cómo opinar e informar mejor sobre la violencia de género’ que ha realizado LLYC en el marco del 8M, Día Internacional de la Mujer.

El estudio concluye que aunque los medios de comunicación conciencian, sensibilizan y previenen sobre violencia de género el doble que las redes sociales, queda mucho trabajo por delante. Todavía el 20% de las noticias publicadas justifican las agresiones y una de cada seis vulnera la intimidad de las víctimas exponiendo datos personales que estas preferirían evitar. Además, en general, sabemos mucho de ellas y poco del agresor. Hay un 75% más de menciones a los atributos de las víctimas.

Luisa García, Socia y COO Global de LLYC, «The Purple Check refleja nuestro compromiso con la igualdad. Es una contribución que hacemos desde la innovación y nuestra herramienta propia de IA para generar conciencia social. Necesitamos un tratamiento de la información más objetivo, equilibrado y justo. La solución nos permite enfocar las noticias con perspectiva de género. Sólo si todos detectamos el sesgo podemos conseguir que el lenguaje sea una herramienta más de cambio.»

Para la elaboración de este informe el equipo de Deep Learning de LLYC ha analizado 226,2 millones de artículos de noticias generales, 5,4 millones de noticias sobre violencia de género y 14 millones de mensajes en la red social X relacionados con la violencia de género en 12 países en los que la consultora está presente (Argentina, Brasil, Chile, Colombia, Ecuador, España, Estados Unidos, México, Panamá, Perú, Portugal y República Dominicana). En la investigación se han empleado Large Language Models (LLMs- GPT4) para identificar y aislar descriptores dirigidos a víctima y agresor, en noticias públicas obtenidas mediante modelos de scrapers, así como técnicas de Procesamiento de Lenguaje Natural (NLP) en 4 idiomas para analizar el cumplimiento de 21 reglas de buenas prácticas derivadas de las guías UNDP y MNRA.

“Quienes participamos en la conversación social sabemos que dar visibilidad a la violencia de género es fundamental para avanzar en su erradicación. Sin embargo, hacerlo mal puede ser contraproducente, generando sensacionalismo y provocando una doble victimización. Desde LLYC queremos, no solo evidenciar este riesgo, sino aportar herramientas para evitarlo”, afirma Luisa García.