El ala más cauta choca con los que tienen prisa por desatar todo el potencial de la inteligencia artificial
26 nov 2023 . Actualizado a las 09:28 h.Cinco días. Es el tiempo que tardaron los directivos de OpenAI en rogarle a Sam Altman que volviese. El consejero delegado de la compañía creadora de ChatGPT fue despedido fulminantemente el pasado viernes 17 de noviembre. La junta alegó cuestiones de confianza, dando a entender que su niño prodigio les ocultaba información sobre la tecnología que se estaba desarrollando. El lunes 20, Microsoft, veloz, fichó a Altman y solo dos días después, el miércoles 21, estaba de vuelta en su sillón ejecutivo. Inversores y empleados —hasta 738 de los 770 que integran la plantilla— habían amenazado seriamente con largarse con él. Entre idas y venidas, perdió el puesto de consejero, pero ganó el apoyo absoluto de Satya Nadella, director ejecutivo del padre de Windows, principal inversor de OpenAI.
CISMA EN LA CÚSPIDE
Estructura inusual. OpenAI nació en el 2015 como un laboratorio independiente centrado en la investigación sobre la inteligencia artificial. Fundado por, entre otros, Ilya Sutskever, Greg Brockman, Sam Altman y Elon Musk —quien poco después acabaría desvinculándose del proyecto— se constituyó como una organización sin ánimo de lucro con el objetivo de generar conocimiento «para todos» por encima de su propio interés. «Se animará encarecidamente a los investigadores a publicar sus trabajos, ya sea en forma de artículos o de código, y nuestras patentes (si las hay) se compartirán con el mundo entero», proclamaba su carta de presentación. Bajo este paraguas se creó tres años después una compañía —esta sí, con fines lucrativos— para desarrollar esa tecnología ideada, para llevar la teoría a la práctica. Fue de aquí de dónde salió ChatGPT. Ambas entidades están, sin embargo, controladas por un mismo consejo de administración que no rinde cuentas a nadie, ni a accionistas ni a inversores, y que vigila escrupulosamente a la parte que ingresa dinero velando por proteger la inteligencia artificial de las «fuerzas del capitalismo». Hasta la semana pasada, esta junta estaba formada por seis miembros: tres de ellos, fundadores —Brockman, presidente del consejo; Sutskever, científico jefe; y Altman, consejero delegado— y otros tres, independientes —Adam D’Angelo, Tasha McCauley y Helen Toner—. Tras la «guerra de los cinco días», solo permanece D’Angelo. A Altman se lo quitaron de encima y con él se fue su fiel amigo, Brockman; Sutskever habría sido el que sugirió su salida, respaldado por McCauley y Toner, los tres purgados cuando Altman regresó.
DOS FACCIONES
Maneras opuestas de entender el desarrollo de la IA. Dentro de OpenAI hay dos facciones claramente diferenciadas. La encabezada por Sam Altam —la comercial— tiene prisa, es ambiciosa, competitiva. Su apuesta es la de llegar primero, la de dar pasos lo más rápido posible sin tener en cuenta (o sin priorizar) las consecuencias. El otro bando —el de seguridad—, liderado por Helen Toner e Ilya Sutskever, apuesta por un desarrollo más controlado y ético, defiende que la empresa debe ceñirse a su propósito fundacional e implementar la inteligencia artificial con muchísimo cuidado. Este choque de trenes es básicamente lo que resumiría todo el culebrón, un conflicto entre quienes confían en el gran potencial de la tecnología para mejorar cualquier aspecto de la vida humana —y pretenden explotarlo— y quienes, de momento, ven más amenazas que beneficios en ella, quienes temen que se vuelva demasiado poderosa e incluso que supere las capacidades humanas.
GOLPE DE ESTADO
Y lo que Altman se calló. Pero, ¿qué fue lo que precipitó el despido de Sam Altam? Según la información que ha trascendido, el consejero delegado de OpenAI habría ocultado a la junta que la compañía estaba trabajando en una nueva inteligencia artificial superpotente, con resultados más que notables. Destaparon la liebre varios investigadores que, instigados por Ilya Sutskever, enviaron una carta a la dirección para advertirle de que en sus propios laboratorios se estaba gestando una probable amenaza para la civilización.
EL TRIUNFO DEL DINERO
La cautela se queda sin poder de veto. La inteligencia artificial es hoy una herramienta de acceso libre y no un conjunto de códigos en el que trabajan unos pocos a puerta cerrada gracias a aplicaciones como ChatGPT. Con el regreso de Altman parece claro quien ha ganado la batalla —que no la guerra—: la visión capitalista toma la delantera, con tres tiburones de Silicon Valley, educados en el universo empresarial de las tecnológicas y poco preocupados por minimizar los efectos destructivos de los algoritmos, al frente del actual consejo. A Adam D’Angelo —ex director tecnológico de Facebook y fundador de Quora con solo 39 años, único superviviente de la junta original— se le han sumado en la sala de mandos el exsecretario del Tesoro Larry Summers y el expresidente de Twitter Bret Taylor. Las voces de la cautela se han quedado sin poder de veto, sin capacidad para pisar el freno.
Y QUIÉN ES ÉL
Altman, «el convencedor». Sam Altman fue un talento precoz de la programación con una «habilidad natural para convencer a la gente», dicen quienes han trabajado con él. Aquel OpenIA con vocación de motor de la investigación, garante del uso seguro de la tecnología, dejó en sus manos la dirección estratégica y la búsqueda de fondos. Pero resulta que, más que el dinero, le gusta el poder. Mucho.
¿Está la humanidad amenazada?
Q*, leáse Q-Star. Es el nombre interno del proyecto secreto que desarrolla OpenAI y del que, según el relato armado estos últimos días, su consejo de administración nada sabía. En la cumbre mundial de inteligencia artificial, celebrada a principios de noviembre en el Reino Unido, el primer ministro británico, Rishi Sunak, se puso insistente con la urgencia de definir las amenazas que supone está tecnología y con la necesidad de tomar medidas al respecto, de prepararse para ellas. «La humanidad podría perder completamente el control sobre la IA», dijo. Y por aquí van los tiros. Investigadores y programadores trabajan en la búsqueda de lo que se llama la inteligencia artificial general (AGI), en el desarrollo de modelos mucho más potentes que los actuales, que serían capaces de superar al ser humano en todas las facetas del conocimiento. ChatGPT será a su lado un juego de niños.
Las matemáticas son la clave de esta «superinteligencia», frontera, a día de hoy, del desarrollo de la IA generativa, capaz de producir texto a través de la predicción estadística de la siguiente palabra. El ChatGPT no piensa; accede a millones de textos alojados en internet, los procesa y «aprende» a generar información coherente, que a veces es verídica y otras no. El reto está en conseguir que la máquina lleve a cabo cálculos matemáticos, con solo una respuesta correcta y no varias válidas producto de agitar y ordenar datos. Q* sería capaz de hacerlo, de resolver determinados ejercicios como lo haría la mente humana. Además de comunicarse en lenguaje natural, una inteligencia artificial general podría «razonar» ante situaciones de incertidumbre de manera autónoma. Y, llevada a su máxima potencia, superar de manera significativa la capacidad intelectual de cualquier persona.