La Voz de Asturias

El tiempo de la prohibición inteligente

Opinión

Gonzalo Olmos
El pionero de la inteligencia artificial Geoffrey Hinton

30 May 2023. Actualizado a las 05:00 h.

Hace unas semanas Geoffrey Hinton, vicepresidente de ingeniería de Google y considerado uno de los principales impulsores de los avances en inteligencia artificial (IA), dimitió de su puesto en la compañía tecnológica para, entre otros fines, poder trasladar con plena libertad de manera pública sus preocupaciones sobre los avances de la IA. El tono de sus palabras desprende el inequívoco timbre del vértigo, pues después de una vida consagrada a hacer progresar la IA, nos advierte con su voz autorizada sobre la pérdida de control de sus desarrollos futuros. No ya por parte de los Estados (que no han comparecido apenas en este debate, hasta hace unos meses) sino de las propias empresas y centros tecnológicos que los promueven. Hinton alerta, por ejemplo, sobre el riesgo cierto de que el usuario promedio de la tecnología se encuentre ante la dificultad de distinguir en el contenido digital que recibe lo veraz de lo fabricado por la IA; o la utilización de la IA en sistemas de defensa capaces de establecer autónomamente sus propios objetivos secundarios (los destinados a la consecución del objetivo principal que se le indique). La solución que demanda Hinton, además de la reflexión colectiva y la prudencia de las empresas que incorporan y divulgan masivamente esta tecnología (cautela que Open AI Microsoft o Midjourney, por citar las más populares, no parecen tener en la debida medida), nuevamente pasa por la regulación, cuya necesidad es un clamor en la comunidad de directivos e ingenieros del sector, si atendemos a la sucesión de pronunciamientos y manifiestos en los últimos meses.

A la par que se suceden estos llamamientos, las noticias nos regalan nuevos avances cuyos usos son capaces de demoler ideas básicas sobre la identidad, el aprendizaje o la propia salvaguarda de la integridad de la mente humana. Así, la capacidad de recopilar datos de la actividad cerebral ha permitido al Centro de Imágenes Biomédicas de la Universidad de Texas traducir en palabras el pensamiento humano, mediante la IA. No es poca cosa, pues la libertad íntima de pensar es, probablemente, la última frontera de nuestra identidad como especie. La posibilidad, que ya rozamos con los dedos, de que los usos terapéuticos convivan con otros dirigidos al aumento artificial de las capacidades humanas o al control de las personas, es de consecuencias incalculables y no materia de ciencia ficción. La profesora de la Duke Law School (Carolina del Norte) Nita Farahany (The battle for your brain, 2023) nos pone sobre la pista de lo venidero, aventurando que el acceso es sólo el principio y el campo de batalla será el neuro monitoreo o la guerra cognitiva, llevada a sus últimas consecuencias.

 Nadie quiere quedar rezagado en la carrera de la investigación y sus aplicaciones (dadas las enormes ventajas que reportará sobre los rivales), y se vislumbran infinidad de usos que pueden estar alineados con una idea compartida de progreso material, médico o en el conocimiento y abordaje de cualquier problema concreto. Pero junto a esas conquistas aparecen riesgos de primer orden. Ya es el momento de preguntarnos si queremos, por ejemplo, que decisiones automatizadas afecten a la esfera de nuestros derechos, sin intervención humana. Si admitimos que el comportamiento que se considere inusual (por ejemplo, en cualquier espacio público) o la detección, por los rasgos externos, de nuestras emociones (en una entrevista de trabajo, en un interrogatorio, etc.), determinen un especial seguimiento y valoración de nuestros actos con consecuencias tangibles. Si deseamos dotar de capacidad de control masivo mediante reconocimiento facial y biométrico a toda clase de autoridades o proveedores de servicios. Si queremos preservar el secreto de nuestras comunicaciones por cualquier medio disponible y reservar nuestra esfera de intimidad o renunciamos a esa libertad civil elemental ante los avances tecnológicos que la comprometen. Si ponemos alguna clase de limitación al desarrollo inevitable de robots que imiten en su morfología a los seres humanos o a los animales, en lugar de ponerles a patrullar las calles, como los robots que el alcalde de Nueva York promueve con carácter pionero. Si queremos que nos defienda y juzgue un juez o un tribunal dispuesto a interpretar las pruebas, aplicar y hacer progresar el Derecho de acuerdo con el tiempo en que se aplica y su contexto, o preferimos que lo haga el algoritmo sobre las bases de datos, sin discernimiento humano. Si el uso de nuestras imágenes y textos, por mucho que los hayamos liberado en la red, puede ser utilizado para crear contenido ajeno por la IA o si nos pertenecen y aún existe el derecho a la propiedad intelectual. Si seremos consecuentes o no con un régimen de protección de datos personales digno de tal nombre, o terminaremos por ceder a los discursos dirigidos a rendir este derecho, en aras de una supuesta seguridad (como se planteó durante la pandemia) o para mantenernos en una carrera desbocada por los nuevos usos y aplicaciones basadas en su tratamiento masivo. Si otorgaremos algún valor al aprendizaje, el descubrimiento y el asombro, a la inquietud intelectual, a la cultura cumulativa y su transmisión intergeneracional, o formaremos al «hombre nuevo» (versión 2.0), capaz de desproveerse de cualquier legado, edificado sobre la ya naciente interfaz con la IA y el campo insondable que se abre.

La necesidad de interpretar, definir, ampliar y salvaguardar los derechos humanos en este contexto tecnológico es abrumadora. Y para ello sólo disponemos un camino posible, que es el de la supervisión, control y limitación. en lo que sea necesario, de las investigaciones en curso, con la creación de un corpus normativo, nacional e internacional, vinculante y efectivo. Al igual que se prohíbe la fabricación, almacenamiento y comercio de determinadas armas biológicas o químicas, o que tienen un potencial superior en la comisión de crímenes de guerra o en el daño a la población civil, como las bombas de racimo o las minas antipersonas. Del mismo modo que se limita la proliferación nuclear en aras de evitar un desastre temido. Al igual que se prohíben determinados experimentos y prácticas científicas sobre la base de principios bioéticos ligados a una noción básica de la dignidad humana. Mucho más allá de la autorregulación o el mero análisis de impacto que, como mucho, se plantea (es la línea principal del Reglamento sobre IA de la Unión Europea, en tramitación y manifiestamente insuficiente antes de ver la luz), es necesario, es ya urgente, establecer normas, autoridades de control, obligaciones de transparencia (sobre qué aplicaciones se proponen y qué usos posibles se desprenden de ellas), un sistema de autorizaciones previas para determinado tipo de desarrollos, y, por supuesto, contar tanto con la facultad coercitiva y sancionadora del Estado como con la posibilidad de los particulares de ejercer acciones legales para hacer valer sus derechos, entre ellos, uno que parece ya quimérico, como es el de sustraerse al control y la subordinación digital.

En el caso de la IA, el temor a perder comba, la sensación (anestesiados como estamos, quizá, por la ciencia-ficción) de que cualquier llamada de alerta es un ejercicio de catastrofismo apocalíptico y el carácter acelerado de los avances (hasta el punto de sorprender a los propios artífices), han deparado un cóctel explosivo, que nos pilla sin la preparación suficiente, sin los medios para un control efectivo, sin la reflexión ética, política y jurídica necesaria, que ya debería estar en la parte superior de la agenda global.


Comentar