OpenAI ha presentado un nuevo modelo de inteligencia artificial llamado GPT-o1, el cual estaba bajo el proyecto conocido como “Strawberry.” Además de este modelo, que inicialmente está disponible para usuarios de ChatGPT Plus y Team, así como en la API para desarrolladores, también se ha presentado una variante llamada «o1-mini», más accesible en términos de costos.
GPT-o1: Un modelo más reflexivo
La principal diferencia entre GPT-o1 y su predecesor, GPT-4o, radica en el tiempo que el nuevo modelo tarda en dar una respuesta. Mientras GPT-4o ofrece respuestas rápidas, GPT-o1 se toma más tiempo para procesar la información y formular una respuesta, lo cual, según OpenAI, es indicativo de un razonamiento más profundo. Este cambio pretende emular el comportamiento humano, donde una reflexión pausada a menudo lleva a mejores soluciones.
Los desarrolladores entrenaron a GPT-o1 para que decida entre diferentes caminos de pensamiento antes de llegar a una respuesta, lo que le permite mejorar su proceso cognitivo y corregir errores de manera más efectiva.
Un ejemplo de esta capacidad es su habilidad para detectar errores en palabras. Mientras que GPT-4o cometió errores al contar la cantidad de «r» en la palabra «strawberry» (fresa), GPT-o1 fue capaz de identificar correctamente la cantidad de letras en una vídeo demostración.
En matemáticas y ciencia
Una de las pruebas de GPT-o1 fue su participación en un examen de clasificación para la Olimpiada Internacional de Matemáticas (IMO). Mientras que GPT-4o solo logró resolver el 13% de las preguntas de manera correcta, GPT-o1 acertó en un 83%.
Al mismo tiempo y según OpenAI, el nuevo modelo muestra capacidades similares a las de estudiantes de doctorado en física, química y biología. Esto lo convierte en una herramienta poderosa para investigadores científicos y académicos que tienen que lidiar con problemas complejos en sus disciplinas.
Velocidad y alucinaciones
A pesar de los avances que ofrece, aún tiene inconvenientes en velocidad. El tiempo que toma para procesar y dar una respuesta es considerablemente más largo que el de GPT-4o. Aunque este tiempo adicional puede ser justificado por su capacidad de razonamiento más profundo, puede resultar frustrante en casos en los que se requiere inmediatez.
Además, aún persiste el problema de las «alucinaciones», un fenómeno en el que los modelos de IA generan información incorrecta o sin sentido. Bob McGrew, director de investigación de OpenAI, reconoció que, si bien GPT-o1 tiene un mejor proceso de razonamiento, aún no han logrado erradicar completamente este problema.
La visión a largo plazo: hacia una inteligencia más avanzada
El proyecto Strawberry, del cual surge GPT-o1, es visto como un posible precursor de la inteligencia artificial general (AGI), una meta que aún parece lejana pero que OpenAI persigue con determinación.
El nombre en código “Strawberry”, aunque no se ha revelado oficialmente el motivo de este nombre, el proyecto comenzó con el nombre «Q*» (Q-Star), que fue uno de los puntos de debate durante la breve salida de Altman de OpenAI en noviembre de 2023. Este cambio de nombre ocurrió en julio de 2024, pero los detalles exactos sobre el porqué del término “Strawberry” siguen siendo un misterio.
Ahora, el éxito de GPT-o1 dependerá del uso del aprendizaje por refuerzo y el razonamiento en cadena, técnicas que le permiten mejorar su capacidad de resolver problemas con cada iteración. Esto se inspira en un modelo desarrollado en Stanford en 2022 conocido como Self-Taught Reasoner (STaR), que permite que un modelo de IA genere sus propios datos de entrenamiento para perfeccionar su rendimiento con el tiempo.
Disponibilidad de GPT-o1
Como decía al principio, GPT-o1 es una versión preliminar y actualmente está limitado a usuarios de pago, pero se espera que la versión «o1-mini» esté disponible para usuarios gratuitos dentro de muy poco. Este modelo más liviano podría facilitar la adopción generalizada, sobre todo entre aquellos interesados en sus capacidades avanzadas de codificación.
Aún así, OpenAI también está desarrollando GPT-5, el cual promete mucho más que el GPT-o1.