El modelo de lenguaje GPT pasa a la versión 4. OpenAI anunció la próxima generación de su IA, de la cual la versión 3.5 dio ChatGPT. Sería mucho más preciso y matizado, y multimodal. Una nueva versión que, sin embargo, está reservada para los suscriptores por el momento.
OpenAI, la firma detrás del famoso chatbot ChatGPTChatGPT, acaba de anunciar la muy esperada nueva versión de su modelo de lenguaje grande (LLM), GPT-4. Esta nueva versión ya está disponible para los suscriptores de ChatGPT Plus (por 20 dólares al mes), y los desarrolladores pueden registrarse en la lista de espera para acceder a la nueva API (interfaz de programación).
La firma no reveló los detalles técnicos que diferencian al GPT-4 de su predecesor. Sin embargo, afirma que este nuevo IAIA «es más fiable, más creativo y capaz de manejar instrucciones mucho más matizadas que GPT-3.5». Donde ChatGPT está limitado a 3000 palabras de entrada o salida, la nueva versión puede alcanzar las 25 000 palabras. Suficiente para dar sudores fríos a quienes buscan reconocer contenido generado por IA.
Una IA que entiende imágenes además de texto
Al contrario de lo que dijo MicrosoftMicrosoft Alemania la semana pasada, GPT-4 no admitirá videos. Sin embargo, es de hecho un modelo multimodal. La IA acepta imágenes como entrada, además de texto, pero las respuestas se limitarán a texto. Sin embargo, el soporte de imágenes no estará disponible para el público en general de inmediato. Actualmente está siendo probado por Be My Eyes, una aplicación de asistencia para personas con discapacidad visual.
Aunque habrá que esperar para poder utilizar imágenes, las demostraciones de la versión multimodal de GPT-4 son impresionantes. Cuando a la IA se le presenta una foto de globos flotantes unidos al suelo por medio de cables y se le pregunta «¿Qué pasaría si se cortaran los cables?», es capaz de comprender el contenido de la imagen y responder «Los globos se alejarse». En otro ejemplo, GPT-4 responde a una foto de leche, huevos y harina con ideas de recetas. No más pararse frente a la puerta abierta del refrigerador tratando de decidir qué cocinar para la cena. Todo lo que tiene que hacer es enviar una foto a la IA para obtener sugerencias.
Más respuestas correctas, menos alucinaciones
OpenAI advierte que GPT-4 aún es propenso a las alucinaciones, pero esta última versión es aún menos propensa a errores. La tasa de respuestas correctas mejoraría en un 40 % en comparación con la versión actual de ChatGPT, y el riesgo de responder a solicitudes de contenido no autorizado se reduciría en un 82 %. Esta es una buena noticia cuando se sabe que la firma tiene varias sociedades comerciales. Duolingo, la aplicación para aprender idiomas, ha anunciado su servicio Duolingo Max, conversaciones con GPT-4 en un idioma extranjero (actualmente limitado a francés y español para usuarios de habla inglesa). El sistema de pago en línea Stripe utiliza GPT-4 para soporte técnico y para combatir el fraude.
Quienes tienen acceso a la nueva versión de Bing con IA conversacional (tras registrarse en la lista de espera) ya han probado GPT-4. Tras evitar dar una respuesta clara en las últimas semanas, Microsoft finalmente ha confirmado que su buscador sí integra el nuevo modelo de lenguaje.