Cuando parecía que la Inteligencia Artificial había llegado a uno de sus puntos más altos con el ChatGPT, OpenAI anunció esta semana la evolución de esta tecnología de procesamiento de lenguaje natural: GPT-4.
Y es que, a diferencia de su predecesor que sólo recibía instrucciones o respondía preguntas a través del texto, la nueva versión del chatbot GPT-4 ha alcanzado un nuevo nivel: procesar imágenes.
Con GPT-4 los usuarios podrán utilizar imágenes como parte del input sobre el que se quiere generar una respuesta. Por ejemplo, tomar una foto con ingredientes disponibles en su cocina y pedirle al chatbot que le ofrezca opciones de recetas y las instrucciones.
Según los medios internacionales, presentándole la imagen de cientos de globos atados a un objeto, GPT-4 es capaz, no sólo de discernir que se trata de globos, sino que también entiende que, si cortas las cuerdas, éstos saldrán volando.
Además del procesamiento de imágenes, la Inteligencia Artificial también puede dar soluciones a tareas más complejas. Si un usuario escribe en una pieza de papel los datos que le gustaría ver en una página web nueva, GPT-4 puede leer eso y crear todo el código necesario para generar un sitio web completo.
Durante la presentación de GPT-4 Greg Brockman, presidente y cofundador de OpenAI, habló de los “superpoderes” de la IA a la hora de nutrirse de imágenes. “GPT-4 es no sólo un modelo lingüístico, es también un modelo visual. Acepta de manera flexible ‘inputs’ que intercalan textos e imágenes”, dijo Brockman.
No obstante, esta función no está aún disponible para el público y actualmente la prueba única y exclusivamente la compañía Be My Eyes.
“Nuestro modelo GPT-4 es más capaz y alineado hasta la fecha. Se trata de modelo multimodal, por lo que admite imágenes, además de textos en calidad de prompts”, dijo a su turno Sam Altman, también cofundador de OpenAI.
Sin embargo, la compañía ha aclarado que, pese a las mejoras, GPT-4 no será inmune a las “alucinaciones”, que no son otra cosa que los errores en la respuestas que se han detectado en la versión de ChatGPT. Según se informó, la nueva IA tendría un 40 % de puntaje más alto a la hora de evaluar su propensión a este tipo de errores.
“GPT-4 todavía tiene muchas limitaciones conocidas que estamos trabajando para abordar, como los prejuicios sociales, las alucinaciones y las indicaciones contradictorias” , explicó OpenaAI.
¿Cómo usar GPT-4?
Por el momento, OpenAI ha anunciado que dejará probar su nuevo modelo GPT-4 a los usuarios con suscripción ChatGPT Plus, servicio que tiene un costo de 20 dólares al mes. Una vez suscrito, ChatGPT Plus da la opción de elegir el modelo de IA, pudiendo seleccionar ya GPT-4.
Otra manera de experimentar con GPT-4 es utilizando la función de chat de Bing. Bing Chat es una herramienta de búsqueda de Microsoft que ya ha implementado la tecnología de GPT-4 para proporcionar respuestas a las preguntas de los usuarios en un formato de conversación.
Para utilizar Bing Chat, los usuarios deben abrir la aplicación de Bing y seleccionar la función de chat. Desde allí, pueden escribir sus preguntas en lenguaje natural, y el sistema proporcionará respuestas en tiempo real.
Cabe destacar que Microsoft ha invertido 10.000 millones de dólares en OpenAI.
Imagen: Getty images