Irlanda investiga las prácticas de Google para entrenar sus procesos de IA con datos de europeos
El regulador irlandés de protección de datos (DPC), que opera como autoridad comunitaria en ese asunto, ha abierto investigación a Google para determinar si el entrenamiento de sus procesos de inteligencia artificial con información de usuarios europeos se ajusta a la normativa.
En concreto quiere dilucidar si la compañía debía haber realizado una auditoría de impacto (DPIA) por considerar que esa tecnología supone riesgos para los derechos y las libertades de aquellos de los que ha tomado información, como fija el artículo 35 del Reglamento General de Protección de Datos (RGPD). Ese desarrollo cae en el ámbito de la Sección 110 de la Ley de Protección de Datos de Irlanda de 2018, derivada de la transposición a nivel nacional de esa legislación.
DPC recuerda en el comunicado en el que anuncia la investigación que la auditoría es necesaria antes de comenzar el procesamiento de información personal en el espacio comunitario.
Y ahora queda por ver si en el transcurso del proceso concluye que Google tenía que haberla realizado, y por tanto si ha incumplido la normativa. Ese organismo tiene capacidad para imponer multas de hasta el 4% de la facturación anual global en ese caso.
Lo que está bajo la lupa del regulador es PaLM 2, la segunda gran iteración en inteligencia artificial de Google. Fue anunciada en mayo del año pasado y está formada por un conjunto de modelos que ofrecen en alrededor de 100 idiomas diferentes capacidades suplementarias vinculadas a razonamiento y codificación. Está presente en docenas de productos y funciones de la compañía, incluyendo su aplicación Bard para habilitar respuestas conversacionales a búsquedas.
El regulador quiere saber si era necesaria una auditoría de riesgos para derechos y libertades previa al procesamiento de los datos.
Este no es el primer encontronazo de DPC con grandes tecnológicas a cuenta de sus incursiones en inteligencia artificial. Hace algunas semanas inició un proceso judicial contra X por sus eventuales intenciones de usar los tuits de europeos para entrenar su aplicación Grok sin pedir permiso a sus autores, algo que finalmente no sucederá porque la compañía se comprometió a no hacerlo para evitar responder en los tribunales.
Y en junio una exigencia del regulador irlandés provocó igualmente que Meta suspendiera el entrenamiento de su modelo de lenguaje (LLM) sobre la base de las publicaciones en abierto de los europeos. Eso a su vez ha retrasado el lanzamiento en la zona comunitaria de su asistente potenciado por inteligencia artificial.