Cómo intentan los científicos crear máquinas capaces de reconocer su entorno, analizarlo y sacar sus propias conclusiones: el pensamiento artificial

G. GUITER

Una de las personas más inteligentes en la historia de la humanidad, que se declaraba fan convencido de la creatividad en detrimento del conocimiento enciclopédico, afirmó: «La memoria es la inteligencia de los tontos». Esa persona era Albert Einstein y, entre otros muchos sucesos del futuro, estaba prediciendo que, algún día, las máquinas serían capaces de memorizar. Pero tendríamos que enseñarles también a pensar.

Esta sería, en una exagerada síntesis, la tarea en la que se afana desde hace décadas un auténtico enjambre de científicos. Hasta ahora, la construcción de la llamada Inteligencia Artificial (IA) ha cabalgado a lomos de una capacidad de almacenamiento de datos creciente en modo exponencial. A mediados del siglo pasado, el hardware era mastodóntico. El ordenador ENIAC (de válvulas de vacío, pues aún no existían los semiconductores), con una capacidad similar a una calculadora escolar actual, ocupaba una habitación entera, pesaba 27 toneladas (como 15 coches medianos) y consumía 160 kilovatios, tanta energía como 800 televisiones led. Un teléfono móvil de hoy en día dejaría en ridículo a ENIAC en cuanto a capacidad de procesamiento y almacenamiento.

Sin embargo, y pese a notables avances, aquel venerable fósil informático y los superordenadores actuales siguen haciendo básicamente lo mismo: calculan lo que les enseñamos a calcular, memorizan lo que les aportamos. Eso sí, muchísimo más rápido que nosotros.

El próximo paso es el que están dando en esa colmena científica los galardonados con el premio Princesa de Asturias de Investigación Científica y Técnica de este año: Geoffrey Hinton, Yann LeCun, Yoshua Bengio y Demis Hassabis. El objetivo, como predecía Einstein, es que las máquinas piensen.

Y hay que empezar por el nada simple hecho de definir en qué consiste el pensamiento. El británico Hinton lleva cuarenta años investigando cómo imitar el funcionamiento de redes neuronales, desde que inventara allá por el año 1986 los algoritmos de retropropagación: hojas de ruta sobre la forma en que se entrenan las redes neuronales. Con esa herramienta creó hace una década una máquina capaz de reconocer objetos con un 75% de efectividad (un porcentaje muy alto en términos informáticos). Aprender a descubrir e identificar con la mirada es algo que los humanos hacemos desde que nacemos, y no resulta nada fácil imitar ese aprendizaje. Al fin y al cabo, nosotros también nos engañamos muy a menudo.

Yan LeCun aportó avances a los algoritmos inventados por Hinton para el reconocimiento de caracteres manuscritos, lo que tenía una aplicación material directa en el reconocimiento de cheques bancarios, por ejemplo. También trabajó en la tecnología de compresión de imágenes que usan millones de usuarios para acceder a documentos escaneados y para el reconocimiento de voz.

Tanto Hinton como LeCun estaban intentando enseñar a máquinas muy poderosas a comparar lo que perciben con sus terminales electrónicas y lo que poseen en su memoria, a buscar parecidos razonables. También Yoshua Bengio ha investigado en esta área, mientras que Demis Hassabis, cofundador de la compañía DeepMind, intenta profundizar en ese llamado Deep learning y, de hecho, consiguió aplicarlo a la predicción de la estructura de 350.000 proteínas humanas.

¿Psicología cibernética?

Todos estos científicos, y ciertamente unos cuantos miles más, aspiran sin duda al Santo Grial: conseguir que las máquinas sean capaces de aprender por sí mismas de su experiencia. Entendemos la experiencia como los inputs que les aplicamos, sus terminales sensibles: cámaras, sensores de temperatura y presión, micrófonos o incluso analizadores de aromas. Lo que sea que les permita percibir el mundo. A partir de ahí, y una vez que sean capaces de reconocer lo que ven y oyen, deberían poder sacar sus propias conclusiones, almacenarlas y modificar sus prejuicios, es decir, lo que nosotros les hemos enseñado.

Es decir, si yo le digo a una máquina que dos más dos es cinco, me creerá. Pero si le enseño a comprobarlo, desechará este concepto y adquirirá otro -correcto o no- en función de sus algoritmos. Ahora bien, ¿Serían capaces de generar una suerte de sentimientos artificiales? ¿Odio, amor, miedo, incertidumbre…? Todo esto está en función de la psicología humana, tan compleja como lo es el propio cerebro. Para Geoffrey Hinton, tal cosa sería posible siempre que tengamos en cuenta que los propios cerebros son singulares en la estructura: no hay dos iguales. Ni siquiera, al parecer, hay dos estructuras neuronales iguales. Esto quiere decir que, a igualdad teórica de condiciones ambientales, familiares, sociales y económicas, dos cerebros aprenderán o deducirán cosas diferentes.

La gran pregunta del imaginario popular que plasmó la película Blade Runner y miles de novelas y obras cinematográficas, pero también de los propios científicos es: ¿Llegaremos a crear seres artificiales que no se distingan en su pensamiento de los humanos? Los protagonistas de Blade Runner sufrían ante la idea de su muerte, se rebelaban porque estaban programados para extinguirse en poco tiempo. Querían perpetuarse, habían generado lo que llamamos instinto de supervivencia y se aferraban a él. Fueron construidos tan perfectos que aprendieron a sentir: miedo y aversión, puede que algo llamado afecto o amor.

Para algunos, no constituye una utopía tan lejana, sino un reto que afrontar al alcance de la mano. La cuestión es qué haremos cuando consigamos crear máquinas que piensen mejor, más rápido y con más eficacia que nosotros: que resuelvan problemas que nosotros no podemos ver o que sean capaces de imitar conexiones sinápticas que les permitan pintar un cuadro desconocido de Leonardo Da Vinci.