
En 2023 se espera que la compañía Neuralink realice los primeros ensayos en humanos de su tecnología de interconexión entre cerebro e inteligencia artificial. La interfaz entre hombre y máquina, llevada a un estadio de conexión directa neuronal, no está lejos de ser una realidad. No es la única iniciativa en este campo, pero probablemente sí la más conocida, por ser Elon Musk uno de sus inspiradores y cofundador de la empresa. Las aplicaciones que se esperan de este avance tecnológico son incontables, muchos de ellos alentadores para tratar enfermedades neuronales graves. La expectativa es enorme, también la puramente especulativa, pues al calor de las potenciales ganancias se mueve el capital inversor. Al mismo tiempo, la sola posibilidad de internarse e incidir en las facultades asociadas al funcionamiento cerebral, incluyendo lo relativo al pensamiento y las emociones, abre una dimensión totalmente nueva.
Lo mismo sucede con los nuevos hitos que se espera alcanzar como fruto de los avances de la «medicina mejorativa», destinada no a curar o prevenir los padecimientos humanos, sino a incrementar las capacidades físicas, sensoriales e intelectuales de las personas. La posibilidad del «hombre aumentado», como resultado de la tecnología y de la intervención sobre cuerpo y mente, no es materia de ciencia ficción, por lo tanto, aunque de momento no vayamos a la metamorfosis sustancial de la Lucy del genial Luc Besson. La diferenciación entre las personas, basada en las capacidades adquiridas por la mejora externa (y quizá, con el tiempo, hereditaria) es una hipótesis plausible a la que nos enfrentamos. No es difícil imaginar que la capacidad adquisitiva de esas mejoras va a residir en el dinero disponible para pagarlas e incorporarlas.
En un caso como en otro, en los albores del transhumanismo, vamos directos a un cúmulo de dilemas éticos y jurídicos a los que ninguna de las generaciones precedentes tuvo siquiera que asomarse más allá de la mera conjetura. La propia noción básica de la condición humana se pone en juego, las reglas de convivencia, las categorías e instituciones jurídicas más elementales (identidad, personalidad, responsabilidad, etc.) quedan bajo cuestión y la creación de desigualdades superlativas harán palidecer a las actuales, ya lacerantes. Avanzamos velozmente hacia ellas, además, en un momento en el que la confianza en la propia decisión humana va a menos, a lomos de las crisis acumuladas, repetidas y cada vez más intensas (económicas, geopolíticas, de salud pública, medioambientales, etc.). No confiamos en nuestro propio criterio y delegar las decisiones humanas, incluso la actividad creativa, en la inteligencia artificial es parte del esquema de procedimiento adoptado, aunque ello nos imbuya aún más en la sensación de pérdida de control propia de nuestro tiempo (no se puede supervisar lo que no se entiende y en lo que no se participa), en un entorno dominado además por la inseguridad cibernética y la imposibilidad de discernir lo real de lo ficticio (el auge del deep fake, la frecuente suplantación de identidad, el triunfo de la ingeniería social, la traslación de la propia relación vital al metaverso o a las redes, etc.).
Desprovistos del debate político y ético necesario, y de las normas democráticas que den cauce y pongan límites razonables, el axioma resultante es sencillo: lo que se pueda llegar a materializar desde el punto de vista técnico, se hará indefectiblemente, sin que las consecuencias hayan sido calibradas ni previstas. Sin disquisiciones morales, o con estas refugiadas en el ámbito de la academia y ausentes de instituciones y parlamentos, el fundamentalismo científico puede producir consecuencias aberrantes. En el campo, antes referido, de la conexión neuronal entre la inteligencia humana y la artificial, los riesgos son ilimitados. La libertad de pensamiento, que la jurista Susie Alegre ya ve amenazada por la forma actual de interactuar en la era del algoritmo, puede verse comprometida de una forma aún más severa. Alegre establece (Freedom to Think, 2022) tres requisitos para la preservación de esa libertad: la capacidad de mantener los pensamientos en privado; la ausencia de manipulación externa de los pensamientos propios; y que nadie pueda ser penalizado por sus pensamientos. Los tres criterios se verán potencialmente amenazados con la consecución de ese avance científico, de una manera que no es producto del aprendizaje, de la selección, del contexto, de la represión o de la influencia sobre la información disponible, sino de la intervención directa en la mente humana, algo que ni los pensadores distópicos imaginaron. Hackear el cerebro de una persona será quizá posible, y no sólo hacerlo, como ya sucede, con su avatar, su cuenta de correo, su equipo informático, sus claves y contraseñas, o sus perfiles en redes (que ya es mucho, de hecho, ya lo es casi todo).
Cuando Robert Oppenheimer, quiso advertir de los riesgos que el éxito del Proyecto Manhattan comportaba y de la necesidad de establecer limitaciones a los usos posibles del conocimiento en materia nuclear, acabó vigilado por el FBI y en el punto de mira del macartismo. La posibilidad de que los avances que estamos alumbrando comprometan el carácter humano de las generaciones venideras (es decir, que no sean, tampoco en este ámbito, sostenibles), es una realidad tangible, un crimen contra la especie humana en ciernes, si no añadimos elementos de contención y reflexión moral que acompañen el progreso técnico y si seguimos contentándonos con caer de hinojos ante los avances científicos, tildando de sospechosos o reaccionarios a quienes planteen las preguntas morales que sobrevuelan. Al igual que se establecieron límites normativos a la investigación genética, fruto del debate y la deliberación, es el momento de la innovación normativa en otros dominios. De manera tímida y parcial, la Unión Europea ya está en marcha con el Reglamento de Inteligencia Artificial en preparación. Pero es necesaria una regulación global, de más alcance y no precisamente tímida.
Comentarios
Para comentar es necesario estar registrado en lavozdeasturias.eslavozdegalicia.es