Idoia Salazar García: «El futuro lo vamos a decidir los humanos y no la inteligencia artificial, y quizás sea esto lo que da miedo»
ACTUALIDAD
Cree que esta tecnología traerá una revolución que cambiará nuestras vidas y que los beneficios son mayores que los riesgos
28 nov 2023 . Actualizado a las 09:34 h.«Hoy en día no es una opción no usar las herramientas de inteligencia artificial». Idoia Salazar García, fundadora y presidenta de la Asociación del Impacto Social y Ético de la Inteligencia Artificial (OdiseIA), tiene claro que esta tecnología va a suponer una revolución que va a cambiar nuestras vidas en todos los ámbitos, pero, lejos de mensajes alarmistas, cree que estamos a tiempo de conducir su uso en beneficio de la humanidad. Salazar participa hoy en Santiago en el congreso «Intelixencia artificial: unha ferramenta para a igualdade?», organizado por la Asociación de Periodistas de Galicia (APG).
—¿Estamos, como dicen, ante una revolución sin precedentes?
—Justo es eso. Creo que estamos ante un punto de inflexión. Esta tecnología sin duda va a incidir directamente y va a cambiar la manera en que planteamos muchas de las tareas rutinarias que hacemos tanto a nivel personal como profesional, mucho más que el impacto que supuso Internet en nuestras vidas. Se trata de una tecnología que va a cambiar la forma que tenemos de pensar, de relacionarnos y con quién vamos a relacionarnos, teniendo en cuenta de que en un futuro próximo también tendremos que hacer interacción con las máquinas. Va afectar a nuestra vida profesional y personal, en todos los sectores y edades, tanto a niños como a adultos y mayores.
—¿Tiene esa enorme capacidad transformadora?
—Esa es la cuestión. Estamos, ahora mismo, en ese momento de la historia en que nosotros, como humanos, tenemos que decidir de qué manera nos va a afectar esta tecnología. No sé qué va a pasar mañana, pero ahora mismo tenemos la iniciativa de conducir esta tecnología por un lado que resulte realmente positivo, o no, para la humanidad.
—Pero el cambio tecnológico avanza más rápido que la legislación. ¿Llegaremos a tiempo?
—Es cierto que estas tecnologías evolucionan mucho más rápido de lo que habíamos previsto, incluso las personas que nos dedicamos a esto. Sí vamos un poco tarde, pero no se está haciendo mal. Y estoy viendo una evolución positiva en el hecho de que cada vez más empresas empiezan a tener códigos éticos internacionales que previenen de los sesgos, de dejar demasiada autonomía a los sistemas de IA, bien sea por un tema de imagen o por generar confianza en el mercado. Así se pueden evitar incidencias negativas hasta que llegue una regulación.
La regulación europea se está fundamentando sobre los riesgos de los sistemas de IA, porque no quieren que la normativa limite la evolución de la tecnología para no quedarnos más atrás todavía con respecto a Estados Unidos y los países asiiáticos. No quieren regular en exceso para potenciar el crecimiento que pueda tener esta tecnología.Para ello están teniendo en cuenta y dialogando con empresas y los países, para ver de qué manera se puede llegar a un acuerdo entre todos para fomentar la IA, pero teniendo en cuenta también este lado de cuidado con los posibles riesgoso.
—El problema es que no son pocos los gurús de la IA que alimentan el mito de que puede acabar con la humanidad. ¿Nos pasamos?
—Completamente de acuerdo. Todo esto se alimenta de los prejuicios que existen. Sobre la robótica y la inteligencia artificial, hay mucha ciencia ficción detrás, la de los robots que acaban con la humanidad. Esto hace que sea fácil confundir a la opinión pública. Todas estas cuestiones derivan muchas veces del desconocimiento que existe sobre la incidencia real que tiene este software. Hay que empezar en realidad a comprender qué es un sistema de IA. Y al menos hasta ahora tiene que haber siempre un científico de datos detrás, por lo que si se hacen bien las cosas la IA no tiene por que tener una incidencia negativa. Eso son mitos que no tienen porque hacerse realidad y si se hacen realidad es porque la humanidad no ha hecho bien su trabajo. En la actualidad los sistemas de IA son una herramienta básica de ayuda a las personas, y las personas tampoco somos los mejores, también mentimos, también cometemos fallos. En este caso, los sistemas de IA bien entrenados pueden suponer una ayuda, incluso a la transparencia humana.
—¿Y que hay de esa superinteligencia amenazante que parece estar detrás del conflicto entre los creadores de ChatGPT?
—La superinteligencia artificial capaz de desarrollar muchas tareas diferentes e incluso llegar a replicarse a sí misma, a automejorarse, siempre es vista como una amenaza por la posibilidad de perder el control humano frente a ese sistema. Pero el hecho de que llegue a desarrollarse, dentro de uno o 50 años, yo no lo veo como una amenaza, siempre y cuando se sigan cumpliendo los parámetros específicos de supervisión humana. Esto será un problema si el ser humano pierde el control y no trabaja para mantener el control sobre esta serie de herramientas.
—¿Es optimista?
—Soy optimista porque veo una evolución positiva respecto a cómo las distintas empresas se están acogiendo hoy en día cada vez más a la IA, hay cada vez más una mayor conciencia por parte de las empresas sobre el buen uso de esta tecnología. Pero también hay una realidad: que esta tecnología va a dar mucho dinero y la gente quiere sacar beneficios, lo que lleva a cierta prisa para hacer cierto tipo de desarrollos cuya incidencia veremos después. ¿Vamos a ver consecuencias negativas? Sí, si las veremos, pero esperemos que cuantas menos mejor. Al final, el futuro lo vamos a decidir nosotros, los humanos, no una inteligencia artificial, y quizás esa es la cuestión que da miedo, que esté en nuestras manos hacia dónde queremos dirigir esta tecnología.
—Existen, sin la IA, recursos suficientes para acabar con la humanidad. Y no lo hemos hecho.
—Claro, también tenemos la bomba atómica y otro tipo de tecnologías que pueden acabar con la humanidad, sin necesidad de una IA, y no las utilizamos. Y lo que puede ocurrir es que a lo mejor llega un sistema de inteligencia artificial que empieza a ver los grandes errores de los seres humanos y pone soluciones más eficientes que las que tenemos ahora. Y también puede ayudar a salvar a la humanidad, de nuevas pandemias, del cambio climático, de problemas de ciberseguridad...
—En el proceso de cambio que afrontamos, ¿qué papel juega la educación?
—Es la clave, pero la educación a todos los niveles. Hay que hacer un cambio estructural en la manera de educar. Es muy necesario educar a los niños, jóvenes, adultos y mayores en la incidencia de estas nuevas tecnologías, sobre la manera en que las empresas utilizan los datos... Es una necesidad para crear una mayor conciencia entre la población sobre la incidencia real de estas tecnologías. Si no lo hacemos tendremos una sociedad fácilmente manipulable, y para mi ese es el gran peligro.
—¿Qué se puede hacer para evitar los sesgos de la IA, como los de género o raza?
-Actualmente existen herramientas específicas que lo que hacen es extraer las variables de sexo, raza, condición social… de los datos con los que se entrena el sistema. Aún así hay que tener mucho cuidado con los datos que se extraen del contexto de los propios datos, que esos también pueden incidir. Es decir, todo sistema de IA cuya incidencia recae sobre los derechos fundamentales de la persona tiene que tener una supervisión. Obviamente tienes que usar herramientas específicas para extraer esas variables de los datos, pero aún así tendremos que tener una supervisión para ver si de alguna manera los datos no se han extraído bien o si, por el propio contexto, ha podido generar un determinado sesgo. La cuestión es que esa vigilancia también está estudiada y ya se conocen herramientas específicas para la detección de posibles sesgos durante todo el período de vida del sistema de IA. Es decir, en la actualidad se conoce suficientemente bien esta cuestión de los sesgos para erradicarla o supervisarla de una manera efectiva. Pero es una cuestión muy importante, por lo que creo que hay que seguir investigando e incidir en nuevos posibles tipos de sesgos que puedan darse derivados de la IA generativa. Aquí no vamos a tener nunca que parar de investigar.