Los expertos advierten de que la ley que regulará la IA tiene lagunas

la voz AGENCIAS

ACTUALIDAD

Aseguran que el proceso para su puesta en marcha tardará meses y dejará grietas abiertas en materias de seguridad y propiedad intelectual

09 dic 2023 . Actualizado a las 20:12 h.

Tras más de treinta y cinco horas de discusiones, los equipos negociadores de la Comisión Europea, el Consejo Europeo y la Eurocámara lograron cerrar el viernes un acuerdo para la primera ley del mundo sobre Inteligencia Artificial (IA). El reglamento europeo quiere identificar los contenidos generados por este tipo de tecnologías y establece varias categorías para prohibir el uso de las consideradas peligrosas y vigilar las de riesgo.

La norma, que deberá todavía ser ratificada por el Parlamento Europeo y el Consejo de la UE, prohíbe, entre otros usos, los sistemas de categorización biométrica por creencias políticas, religiosas, filosóficas o por su raza y orientación sexual.

Expertos en computación y derechos digitales han celebrado el acuerdo alcanzado en Bruselas, pero han advertido también de las «lagunas» que todavía tiene el acuerdo. Para el profesor universitario y experto en derecho digital Borja Adsuara, era muy importante que la UE fuera la primera región del mundo en tener una norma general sobre el uso de la inteligencia artificial, por lo que ha aplaudido el acuerdo político y ha felicitado a la Presidencia española y a la Secretaría de Estado de Digitalización e Inteligencia Artificial (SEDIA) por el esfuerzo que han realizado para lograrlo.

En declaraciones a EFE, Adsuara ha insistido en que la tramitación del Reglamento no ha terminado y en que comienza ahora una negociación «técnica» y un proceso de traducción que se va a prolongar durante varios meses, y tras su publicación definitiva se abrirá un plazo de dos años para su aplicación plena, aunque se podrá adelantar la entrada en vigor de algunos puntos.

Borja Adsuara ha señalado por ejemplo el acuerdo sobre las reglas básicas que debe regir el uso de la IA generativa, pero ha observado que las «múltiples dudas» y problemas de propiedad intelectual que genera esta tecnología se tendrán todavía que abordar en una norma específica sobre propiedad intelectual.

Y en cuanto a la «vigilancia biométrica» y otros usos peligrosos que la IA puede tener para los derechos fundamentales de los ciudadanos, Adsuara ha manifestado que lo importante no es solo la lista de excepciones «sino, sobre todo, saber quién va a vigilar a los que nos vigilan».

En ese sentido, propone la creación de un sistema de garantías y sanciones a las autoridades y administraciones públicas que hagan un mal uso de la inteligencia artificial, que incluya la inhabilitación de los funcionarios que hagan un mal uso de esta tecnología, «para que no pase lo mismo que ha pasado con el Reglamento General de Protección de Datos».

¿Puede quedar Europa fuera de los grandes modelos de inteligencia artificial?

Alfonso Valencia, profesor de la Institución Catalana de Investigación y Estudios Avanzados y director de Ciencias de la Vida en el Centro Nacional de Supercomputación (BSC-CNS), ha observado que la regulación afecta a dos tipos de aplicaciones: las de reconocimiento de personas (como el reconocimiento facial o la biometría), que se prohíben con excepciones; y las denominadas de «alto riesgo», como son los modelos generales (como el popular ChatGPT). Valencia ha señalado, en relación con las primeras, que se hacen excepciones para temas policiales «lo que hace difícil saber dónde acabará el uso de estas tecnologías en la práctica».

Respecto a las aplicaciones de «alto riesgo», ha subrayado que el documento propone medidas restrictivas que requieren valoración de riesgos, descripción detallada de su funcionamiento o describir todas las fuentes de datos usadas para su entrenamiento, unas medidas que a su juicio son relativamente fáciles de aplicar a sistemas tradicionales como los que operan en bancos o compañías de seguros, «pero muy difíciles o imposibles en los nuevos sistemas de IA». La ampliación de estas medidas implicará, según el experto, que los sistemas actuales de las grandes compañías no podrán operar en Europa, salvo a través de «IPs» (protocolos de internet) de fuera de Europa.