El «Gran hermano» tecnológico bloquea la ley europea de inteligencia artificial

Raúl Romar García
r. romar REDACCIÓN / LA VOZ

ACTUALIDAD

-

Las negociaciones para alcanzar un acuerdo histórico se reanudan este viernes con vistas a pactar el primer gran marco legal de referencia mundial: estas son las claves

08 dic 2023 . Actualizado a las 19:37 h.

La ley europea que regulará los usos, que no la tecnología, de la inteligencia artificial se resiste. Después de 24 horas de intensas discusiones entre el Consejo de Europa, que representa a los Gobiernos, la Comisión y el Parlamento, las negociaciones para lograr el gran marco legal que aspira a ser referente para el resto del mundo se reanudarán este viernes. «Estamos agotados. Necesitamos dormir para poder reevaluar los textos», confesó uno de los participantes a Reuters. Hasta ahora se ha logrado un acuerdo preliminar para regular los modelos de IA generativa como ChatGPT y se ha respetado, a falta de conocer más detalles, la clasificación de riesgos aprobada en junio por el Parlamento Europeo. Pero la obligación de que las empresas cedan su código fuente y, sobre todo, la prohibición o no de los sistemas de vigilancia biométrico por reconocimiento facial en espacios públicos mantienen bloqueadas las negociaciones.

Descartada la autorregulación

LA INCERTIDUMBRE DE ÚLTIMA HORA

La propuesta a última hora de Francia, Alemania e Italia para que sean las propias empresas las que autorregulen sus herramientas de IA mediante un código voluntario había amenazado con romper las negociaciones, ya que suponía un cambio radical a la propuesta aprobada en junio por el Parlamento Europeo, que establecía una serie de niveles de riesgo sobre el uso de esta tecnología, desde inaceptable, que prohíbe su uso, a riesgo alto, limitado o mínimo. Solo en este último caso no se requeriría una regulación. La autorregulación parece ahora descartada.

IA Generativa

CHATGPT Y OTROS MODELOS SIMILARES QUEDAN REGULADOS

Cuando Bruselas propuso la ley en abril del 2021, ChatGPT, de la empresa OpeanAI, aún no había surgido y la norma no pensó en regular los modelos fundacionales de inteligencia artificial. Pero desde su estallido el año pasado, la UE ha buscado la manera de incluirlos y este ha sido uno de los principales puntos de fricción. La apuesta ahora, a falta de concretar la letra pequeña, pasa por obligar a las empresas a comprobar que sus sistemas son seguros, antes de poderlos utilizar en contextos de riesgo, como la sanidad, la justicia o la contratación laboral. La normativa, en principio, incluirá, entre otros aspectos, la obligatoriedad de identificar los contenidos creados por IA y clasifica esta tecnología en una serie de categorías, prohibiendo el uso de las consideradas peligrosas y monitorizado aquellas «de riesgo». El reglamento tendrá cierta flexibilidad para que —de ser necesario— nuevas tecnologías de este tipo puedan ser incluidas o retiradas en la «lista de riesgo». Además, los proveedores de IA tendrían que publicar resúmenes detallados del contenido utilizado para entrenar a sus sistemas. Pero aún quedan flecos por resolver.

Un momento de las negociaciones en la madrugada del jueves
Un momento de las negociaciones en la madrugada del jueves TB

Reputación social

EL «SOCIAL SCORING» QUEDA PROHIBIDO

Los modelos de «Social scoring» o reputación social quedan prohibidos. Es una especie de puntuación que determina la credibilidad o reputación de una persona a partir de varios factores, como sus datos personales o su actividad, tanto online como física. Este sistema evalúa cada interacción como negativa o positiva y, en función de ella, el ciudadano recibe varios puntos con los que poder conseguir ciertos beneficios, como obtener mejores condiciones para lograr un crédito o un trabajo. Si, por el contrario, la calificación es negativa se le podría negar un billete de avión, un seguro o un crédito. En China sí se utiliza. 

El gran obstáculo

VIGILANCIA BIOMÉTRICA

Los sistemas de vigilancia biométrica en espacios públicos que permiten el reconocimiento facial y de las emociones de los individuos suponen ahora mismo el gran escollo de las negociaciones. El Parlamento europeo prohibió su uso en junio, pero ahora los Gobiernos quieren que se establezcan excepciones ala hora de limitar el uso de este «Gran hermano» que vigila a los ciudadanos. Los Estados miembros quieren que se permita el uso de este tipo de tecnología en casos en los que esté en juego la Seguridad Nacional y siempre bajo autorización judicial. Quieren que se pueda usar, por ejemplo, para evitar delitos como el terrorismo, el abuso sexual o la protección de infraestructuras críticas.

El marco general

CLASIFICACIÓN DE RIESGOS

La ley propone una estructura piramidal que divide los productos impulsados por IA en cuatro categorías principales en función del riesgo potencial que representan para la seguridad de los ciudadanos y los derechos fundamentales: riesgo mínimo, riesgo limitado, riesgo alto y riesgo inaceptable. Aquellos que entren en la categoría de riesgo mínimo estarán exentos de reglas adicionales, mientras que aquellos etiquetados como de riesgo limitado tendrán que cumplir con obligaciones básicas de transparencia. Como marco general, la legislación reforzará las normas sobre calidad de los que alimentan los algoritmos para lograr una IA fiable y confiable. Apostará por la transparencia que obligará, según los casos,, a advertir de que se está utilizando una inteligencia artificial e incorporará la supervisión humana en aquellos supuestos donde sea necesario.

Código abierto

EXENTAS DE LA NORMATIVA

La ley plantea eximir de la regulación a las licencias de IA gratuitas y de código abierto en la mayoría de los casos, a menos que se consideren de alto riesgo se utilicen para fines ya prohibidos.

Cumplimiento

UN ORGANISMO EUROPEO

La ley contempla la creación de un organismo europeo que velará porque se cumpla la normativa y cada Estado miembro contará, además, con un organismo nacional dedicado a esta labor. En el caso de España será la Agencia Nacional de Supervisión de Inteligencia Artificial (Aesia), con sede en A Coruña, que empezará a funcionar a principios de año.

Aprobación

AÚN HABRÁ QUE ESPERAR

Aunque Consejo, Comisión y Parlamento logren un pacto este viernes, aún habrá que esperar para la aprobación definitiva de la ley y más aún para su entrada en vigor. Si ahora se alcanza el acuerdo la propuesta debe ser ratificada por el Parlamento y aceptada de forma definitiva por el Consejo. De esta forma quedaría aprobada en primavera del 2024 y podría entrar en vigor, ya que los Estados tendrán que incorporarla, a finales del 2025 o incluso el 2026. Si no se pacta ahora los tiempos se prolongarán aún más, con lo que Europa podría perder su posición de privilegio para convertirse en referente mundial en la regulación de la inteligencia artificial.