La normativa regulará el uso de tecnologías como ChatGPT, prohíbe los sistemas de vigilancia biométrica, obliga a respetar los derechos de autor y establece diferentes niveles de riesgo para sus desarrollos
13 mar 2024 . Actualizado a las 17:05 h.La ley europea sobre Inteligencia Artificial (IA), una normativa pionera para la regulación de esta tecnología, ha recibido este miércoles el visto bueno definitivo del Parlamento Europeo. El reglamento ha recibido un apoyo mayoritario, con 523 votos a favor y 46 en contra, en el que es un paso significativo para su aprobación final, aunque la norma no entrará en vigor hasta 2026. Con esta normativa, la Unión Europea (UE) quiere identificar los contenidos generados con este tipo de tecnologías como ChatGPT (que deberán respetar en todo caso los derechos de copyright), vigilará las IA consideradas de riesgo y prohibirá el uso y desarrollo aquellas con aplicaciones peligrosas.
La norma marcará el camino para la regulación de esta tecnología en el resto del mundo, ya que es la primera que se ha aprobado, al margen de la de pequeños países.
En este sentido, el texto acordado entre las instituciones comunitarias pretende impulsar el desarrollo de este tipo de tecnología en la UE y, al mismo tiempo, servir como ejemplo para regular la IA en otras regiones del mundo. La ley establece unas líneas rojas y prohíbe los usos peligrosos, como la vigilancia biométrica masiva en espacios públicos. Incluye, con todo, varias excepciones a la norma y señala que se podrá utilizar bajo autorización judicial para prevenir una amenaza terrorista inminente o para localizar o identificar a autores de delitos de terrorismo o tráfico de personas, entre otros.
Este fue uno de los puntos más complicados en las negociaciones entre los Veintisiete y la Eurocámara, ya que el Parlamento Europeo defendía la prohibición total de la vigilancia biométrica en espacios públicos. Finalmente se han incluido excepciones, pero bajo «estrictas salvaguardas» para evitar un posible uso abusivo por parte de las autoridades nacionales.
Marca de agua
La nueva ley también contempla ciertas obligaciones para las IA creativas, como ChatGPT, a identificar los contenidos (textos, fotos, vídeos) generados con este tipo de tecnologías con una marca de agua. Estos programas también deberán respetar en todo momento los derechos de autor.
La normativa europea prohíbe el uso de ciertas aplicaciones como el social scoring o sistemas de puntuación social, una práctica empleada por el Gobierno chino para determinar la posición social de sus ciudadanos en función de su comportamiento. Es una valoración que, por ejemplo, se tiene en cuenta para acceder a ayudas públicas, préstamos bancarios o seguros de vida. La lista de las tecnologías consideradas de riesgo será dinámica y se irá adaptando a las nuevas IA del futuro, de este modo la regulación no quedará desfasada. Al mismo tiempo se creará un organismo que velará por el buen uso de estas tecnologías y se crearán instituciones de supervisión nacionales. Se espera que la normativa se empiece a aplicar de forma gradual a partir de 2026.
El Reglamento, acordado en las negociaciones con los Estados miembros en diciembre del 2023, fue respaldado por la Eurocámara con 523 votos a favor, 46 en contra y 49 abstenciones.
El objetivo de la normativa, según sus promotores, es proteger los derechos fundamentales, la democracia, el Estado de derecho y la sostenibilidad medioambiental frente a la IA que entraña un alto riesgo, impulsando al mismo tiempo la innovación y erigiendo a Europa en líder del sector. El reglamento fija una serie de obligaciones para la IA en función de sus riesgos potenciales y su nivel de impacto.
Aplicaciones prohibidas
Las nuevas normas prohíben ciertas aplicaciones de inteligencia artificial que atentan contra los derechos de la ciudadanía, como los sistemas de categorización biométrica basados en características sensibles y la captura indiscriminada de imágenes faciales de internet o grabaciones de cámaras de vigilancia para crear bases de datos de reconocimiento facial. También se prohibirán el reconocimiento de emociones en el lugar de trabajo y en las escuelas, los sistemas de puntuación ciudadana, la actuación policial predictiva (cuando se base únicamente en el perfil de una persona o en la evaluación de sus características) y la IA que manipule el comportamiento humano o explote las vulnerabilidades de las personas.
Exenciones de las fuerzas de seguridad
El uso de sistemas de identificación biométrica por parte de las fuerzas de seguridad queda prohibido a priori, salvo en situaciones muy concretas y bien definidas. Los sistemas de identificación biométrica «en tiempo real» solo se podrán emplear si se cumplen una serie de salvaguardias estrictas; por ejemplo, su uso se limita a un período y lugar específicos y cuenta con una autorización judicial o administrativa previa. Entre estos casos pueden figurar la búsqueda selectiva de una persona desaparecida o la prevención de un atentado terrorista. Recurrir a estos sistemas a posteriori se considera un uso de alto riesgo, que requiere autorización judicial al estar vinculado a un delito penal.
Obligaciones para los sistemas de alto riesgo
También se prevén obligaciones claras para otros sistemas de IA de alto riesgo (debido a que pueden ser muy perjudiciales para la salud, la seguridad, los derechos fundamentales, el medio ambiente, la democracia y el Estado de derecho). Algunos ejemplos de usos de alto riesgo de la IA son las infraestructuras críticas, la educación y la formación profesional, el empleo, los servicios públicos y privados esenciales (por ejemplo, la sanidad o la banca), determinados sistemas de las fuerzas de seguridad, la migración y la gestión aduanera, la justicia y los procesos democráticos (como influir en las elecciones). Estos sistemas deben evaluar y reducir los riesgos, mantener registros de uso, ser transparentes y precisos y contar con supervisión humana. Los ciudadanos y ciudadanas tendrán derecho a presentar reclamaciones sobre los sistemas de IA y a recibir explicaciones sobre las decisiones basadas en ellos que afecten a sus derechos.
Requisitos de transparencia
Los sistemas de IA de uso general y los modelos en los que se basan deben cumplir ciertos requisitos de transparencia, respetar la legislación de la UE sobre derechos de autor y publicar resúmenes detallados del contenido usado para entrenar sus modelos. Los modelos más potentes que podrían plantear riesgos sistémicos deberán cumplir requisitos adicionales, como realizar evaluaciones de los modelos, analizar y mitigar los riesgos sistémicos e informar sobre los incidentes.
Además, las imágenes, contenidos de audio o de vídeo artificiales o manipulados («ultrafalsificaciones») deberán etiquetarse claramente como tales.
Medidas de apoyo a la innovación y a las pymes
Habrá que poner a disposición de las pymes y de las empresas emergentes espacios controlados de pruebas y ensayos en condiciones reales a nivel nacional para que puedan desarrollar y entrenar la IA innovadora antes de su comercialización.
Declaraciones de los ponentes
«Finalmente tenemos la primera ley vinculante del mundo sobre inteligencia artificial, para reducir riesgos, crear oportunidades, combatir la discriminación y aportar transparencia. Gracias al Parlamento, se prohibirán en Europa prácticas inaceptables de IA y se protegerán los derechos de los trabajadores y los ciudadanos. La nueva Oficina de IA ayudará a las empresas a respetar las normas antes de que entren en vigor. Nos aseguramos de que los seres humanos y los valores europeos estén en el centro mismo del desarrollo de la IA», destacó el coponente de la comisión de Mercado Interior, Brando Benifei.
Por su parte, el coponente de la comisión de Libertades Civiles Dragos Tudorache, subrayó que «la UE ofrece resultados. Hemos vinculado el concepto de inteligencia artificial a los valores fundamentales que constituyen la base de nuestras sociedades. Sin embargo, hay mucho trabajo por delante que va más allá de la propia Ley de IA. La IA nos empujará a repensar el contrato social en el corazón de nuestras democracias, nuestros modelos educativos, los mercados laborales y la forma en que llevamos a cabo la guerra. La Ley de IA es un punto de partida para un nuevo modelo de gobernanza construido en torno a la tecnología. Ahora debemos centrarnos en la aplicación práctica de la legislación».
Próximos pasos
El Reglamento aún está sujeto a una última comprobación jurídica-lingüística. Su aprobación definitiva (mediante el llamado procedimiento de corrección de errores) está prevista para antes del final de la legislatura. La ley también debe ser adoptada formalmente por el Consejo.
Entrará en vigor veinte días después de su publicación en el Diario Oficial y será de plena aplicación veinticuatro meses después de su entrada en vigor, con excepción de: las prohibiciones de prácticas (se aplicarán seis meses después de la fecha de entrada en vigor); los códigos de buenas prácticas (nueve meses después); las normas sobre la IA de uso general, incluida la gobernanza (doce meses después), y las obligaciones para los sistemas de alto riesgo (treinta y seis meses después).