ChatGPT (inteligencia artificial)

EEUU usará legislación sobre defensa para obligar a operadoras de inteligencia artificial a informar de sus proyectos

| 30 ENERO 2024 | ACTUALIZADO: 31 ENERO 2024 8:57

La administración Biden está estrechando el cerco sobre las empresas de inteligencia artificial. Si la Comisión Federal de Comercio (FTC) acaba de solicitar a los principales actores del sector más información sobre sus relaciones y el impacto de su actividad, lo siguiente que se perfila para ellas es el uso de legislación creada en 1950 para garantizar el suministro de productos para la defensa. Así lo ha indicado la secretaria de Comercio Gina Raimondo en un evento reciente, sin que de momento haya detalles más allá de la obligatoriedad de informar al Gobierno cuando entrenen un modelo que use una cantidad significativa de potencia informática y sobre las pruebas de seguridad realizadas.

Su departamento está trabajando en una guía que ayude a las empresas que están desarrollando grandes modelos a entender los riesgos que pueden conllevar, con pautas que fijarán garantías como que la inteligencia artificial no se pueda usar para cometer abusos contra derechos humanos. En esa labor está involucrado el Instituto Nacional de Estándares y Tecnología (NIST) y su trabajo en el diseño de un marco de seguridad para esa tecnología derivará en la creación de un nuevo Instituto de Seguridad de Inteligencia Artificial.

NIST tiene hasta el 26 de julio para establecer esos estándares, según cita la orden ejecutiva firmada en octubre por el presidente Joe Biden, que instaba al Departamento de Comercio a elaborar un esquema informativo antes del 28 de enero para que las empresas concernidas informaran al Gobierno. Y de momento ese plan cuenta con algunas voces críticas entre republicanos y demócratas que se sustanciaron en diciembre con una carta abierta por hasta seis parlamentarios de ambos partidos en la que cuestionan el procedimiento.

En ella los representantes apuntaban que la investigación sobre los sistemas basados en inteligencia artificial está en sus inicios y hay un “desacuerdo significativo” entre expertos sobre cómo medir o definir cuestiones de seguridad vinculadas a ella. Además, esa institución se enfrenta a problemas de recursos que en el caso de los grandes actores tecnológicos que precisamente están desarrollando esos modelos no existen. Esos y otros retos son los que se plantean ante el eventual escenario de regulación de la inteligencia artificial, que cuenta con el apoyo de los dos partidos mayoritarios de EEUU.

La administración de Joe Biden echa mano de una ley de 1950 para que OpenAi, Google o Microsoft tengan que informar de sus proyectos más sensibles en esa tecnología y de sus revisiones de seguridad.

A falta de ver posibles movimientos en el Congreso al respecto, el encaje en la Ley de Producción de Defensa anunciada por Raimondo dará en principio al Gobierno acceso a información clave sobre proyectos sensibles de OpenAI, Google, Amazon u otras compañías que compiten o que lo hagan en el futuro en aplicaciones de esa tecnología. En todo caso, aún queda por concretar la entrada en vigor de esta inclusión o las posibles acciones que el Gobierno puede adoptar ante la información que eventualmente faciliten esas compañías.