Investigadores advierten de que OpenAI tendría una IA que amenazaría a la humanidad

La Voz REDACCIÓN

ACTUALIDAD

JOHN G. MABANGLO | EFE

Tras la vuelta de Sam Altman a las filas de la empresa creadora de ChatGTP apenas cinco días después de ser despedido por «pérdida de confianza», sale a la luz este descubrimiento

23 nov 2023 . Actualizado a las 20:10 h.

Cuando parecía que el culebrón que azotó Silicon Valley en los últimos días, en el que fueron protagonistas OpenAI, uno de sus fundadores (Sam Altman) y Microsoft, con la vuelta de Altman a la empresa que creó ChatGPT apenas cinco días después de ser despedido, ha habido un nuevo giro de guion inesperado. 

Dicen que Altman estaba en Las Vegas viendo la Fórmula 1 cuando le comunicaron vía telefónica su cese en OpenAI. A los pocos días, se anunciaba su fichaje por Microsoft, y antes de ser readmitido, el 95 % de la plantilla le mostraba su apoyo y forzaba a la junta a que volviese, o amenazaban con irse con él. 

Ahora, según informa Reuters, ha trascendido que desde hacía tiempo había un cisma entre la junta y Altman, ya que varios investigadores, entre los que se encontraría Helen Toner, advirtieron que no estaban de acuerdo con las labores que estaba desarrollando Sam Altman, al trabajar en una inteligencia artificial que ponía en riesgo a toda la humanidad. 

Según se ha publicado, el proyecto se bautizó como Q* (Q-Star) y su algoritmo era un gran avance en cuanto a los artificios de inteligencia artificial (AGI). Se trataría de un conjunto de sistemas con autonomía propia que podrían llegar a superar a los humanos. Sería una especie de entramado que podría suplir cualquier tarea que desarrolle un cerebro humano. Ahí estaría el punto de fricción: una parte de la junta de OpenAI querría invertir más y ir más rápido en este tipo de descubrimientos y avances, mientras que otros se muestran más conservadores y cautelosos, y preferirían estudiar bien las consecuencias y los peligros que podría suponer esta inteligencia. En un documento advertían que las habilidades potenciales de Q* suponían un riesgo de tal calibre que ella misma podría decidir la destrucción de la humanidad. Varios de los miembros que hoy ya no pertenecen a la junta querían frenar esos desarrollos hasta ver bien sus riesgos reales. 

Según varios medios los investigadores más conservadores ven en las matemáticas (Q* sería capaz de hacer operaciones como un alumno de primaria) una frontera que deberían evaluar bien antes de cruzar. Dicen que unas semanas antes del despido y posterior readmisión de Altman, este se cruzó con Toner, la investigadora que advirtió de los graves riesgos de Q* y le recriminó el informe que había firmado. Ella se defendió argumentando la importancia de sus labores de advertencia, pero Altman le recriminó que no trabajaban en la misma línea. «No estamos en la misma página sobre el peligro de todo esto. Cualquier disensión de un miembro del comité tiene mucho peso», le dijo, mientras ella se mostraba tajante: o trabajaban en una inteligencia artificial que fuese buena para los humanos, o de lo contrario, la empresa debería extinguirse

Después de todo lo ocurrido queda claro que en este caso, Altman y los que le apoyan habrían ganado, por el momento, esta batalla en OpenAI.