ChatGPT puede sacar mejor nota en un examen que el 90 % de humanos

La Voz REDACCIÓN / LA VOZ

ACTUALIDAD

La interfaz de GPT-4.
La interfaz de GPT-4.

Open AI ha puesto en funcionamiento GPT-4, una actualización más potente del «chatbot», preparada para extraer información de imágenes y para elaborar respuestas más contextualizadas

15 mar 2023 . Actualizado a las 17:12 h.

Lejos de estancarse, los avances en el campo de la inteligencia artificial van cada vez a más. OpenAI, compañía que adquirió fama con ChatGPT, su chatbot impulsado por inteligencia artificial (IA), lanzó este martes GPT-4, una actualización más potente de su modelo de lenguaje que puede analizar imágenes y tiene una mayor capacidad de razonamiento. Según la compañía, que lleva semanas trabajando con Microsoft, es «más creativo y colaborativo» y «puede resolver problemas difíciles con mayor precisión».

Si una de las premisas de los modelos anteriores era la generación de contenido a partir de texto, la principal novedad de GPT-4 es su capacidad para extraer información de imágenes o de formatos que entremezclen el contenido gráfico y el verbal. En su web oficial, para explicar el funcionamiento, exponen un ejemplo. Si el usuario envía una fotografía de unos huevos, un poco de harina y una taza de leche preguntando qué podría hacer con los ingredientes, la inteligencia artificial responde con algunas de las posibles recetas. «¡Hay muchas opciones para lo que puedes hacer con estos ingredientes! Algunas posibilidades incluyen: gofres, pastel, magdalenas, pan...», explica en una lista.

«Muestra capacidades similares a cuando se introduce solo texto», presume OpenAI. No obstante, esta capacidad de analizar imágenes «sigue siendo un avance de investigación y no está disponible públicamente». Al contrario que su anterior versión, GPT-4 no estará abierta al público general. Para acceder será necesario tener una suscripción a ChatGPT Plus o bien contratar el acceso para desarrolladores.

Aunque solo puede responder a través de texto, cuenta con la capacidad de describir, analizar y entender imágenes gracias a la tecnología Be My Eyes. Así lo explicó Greg Brockman, presidente y cofundador de OpenAI, este martes en un evento virtual al que tuvo acceso Europa Press. Brockman preguntó a GPT-4 por qué era gracioso un dibujo de una ardilla sonriente sacando fotos, a lo que el chatbot contestó: «La imagen es graciosa porque muestra a una ardilla sosteniendo una cámara y fotografiando a una nuez como si fuera un fotógrafo profesional. Es una situación graciosa porque las ardillas generalmente comen nueces y no esperamos que usen una cámara o actúen como humanos».

La compañía tecnológica ha personalizado GPT 4 para la búsqueda en Bing.
La compañía tecnológica ha personalizado GPT 4 para la búsqueda en Bing.

Esto se debe a que, con su actualización, las respuestas de texto de ChatGPT son más precisas. El chatbot construirá discursos más coherentes gracias a la evolución de su modelo conversacional, GPT-3, entrenado para interactuar mejor con el usuario. «Siguiendo el camino de investigación de GPT, GPT-2 y GPT-3, nuestro enfoque de aprendizaje profundo aprovecha más datos y computación para crear modelos de lenguaje cada vez más sofisticados y capaces», indican desde la compañía en un comunicado.

En los últimos dos años «encontramos y arreglamos algunos errores y mejoramos nuestros fundamentos teóricos», aunque el campo de conocimiento se sigue limitando hasta el 2021. El chatbot no es capaz de responder cualquier pregunta que implique el conocimiento de la actualidad. Aunque «es menos capaz que los humanos en muchos escenarios del mundo real», para mostrar su exactitud, Open AI ha probado su rendimiento en varios modelos de examen. «Para comprender la diferencia entre los dos modelos —el nuevo y el anterior—, probamos en una variedad de puntos de referencia, incluida la simulación de exámenes que fueron diseñados originalmente para humanos», indican.

Tomaron como referencia pruebas públicas y no entrenaron el modelo de ninguna forma específica para hacerlas. Aunque los resultados ofrecidos por la compañía no se pueden contrastar, aseguran que están entre los mejores. «Por ejemplo, aprueba un examen de abogacía con una puntuación que está entre el 10 % de los mejores examinados; por el contrario, la puntuación de GPT-3.5 se situó en torno al 10 % de los peores», explican desde la compañía.

La nueva versión puede procesar preguntas y órdenes así como generar respuestas más largas, de hasta 25.000 palabras, 8 veces más que la primera versión de ChatGPT. Anunciaron también la asociación con varias empresas, como Duolingo, Stripe y Khan Academy, para integrar GPT-4 en sus productos.