Connect with us

Ciencia y Tecnología

ChatGPT ahora tiene un “router” que elige por nosotros qué modelo de GPT-5 usar. Y está eligiendo el más barato

Published

on

ChatGPT ahora tiene un "router" que elige por nosotros qué modelo de GPT-5 usar. Y está eligiendo el más barato

El lanzamiento de GPT-5 no ha estado a la altura de lo esperado. En vez de sorprenderse con el salto generacional, demasiadas personas han echado de menos la calidez de GPT-4o. Sam Altman, CEO de OpenAI, anticipaba el lanzamiento del nuevo modelo con la Estrella de la Muerte, pero el hype se ha quedado muy lejos del de momentos wow como la generación de imágenes de ChatGPT, que llegó a “derretir” servidores. Uno de los culpables tiene nombre: “router” o enrutador.

Qué ha pasado. Tras el lío de nomenclaturas de modelos de OpenAI (que ya recuerda al lío de móviles de Xiaomi) y el hecho de hacer que el usuario tuviera que elegir cuál le convenía más, la compañía optó por lanzar todos los (sub)modelos de GPT-5 de forma unificada. Ahora el sistema elegiría el modelo que estimaba que más convenía para resolver la indicación. El encargado de dicha tarea es un “router”.

Este, “decide rápidamente qué modelo usar basándose en el tipo de conversación, la complejidad, o la necesidad de herramientas”. El problema es que en estos primeros días, el router se suele decantar demasiadas veces por el modelo básico de GPT-5, frente al modelo “Thinking” o razonador. Eso que ha hecho que la nueva generación sea vista como mucho más tonta de lo que Sam Altman llegó a afirmar (defendía que era como tener un equipo de doctores a tu disposición). El salto necesario parecía imposible, y en efecto, muchos usuarios no lo han sentido.

El problema. OpenAI decide qué modelo es más eficiente para el usuario, pero también qué modelo es más eficiente para sus servidores. En el lanzamiento de GPT-5, no han sido transparentes sobre qué les lleva a usar un modelo u otro, y han llegado los usuarios que les acusan de elegir el modelo más barato para ahorrar costes.

Aidan McLaughlin, empleado de OpenAI, defendía en X que prefiere GPT-5 sin razonamiento la mayoría (65%) de veces por cómo interactúa con el usuario. Aseguraba que no usan el enrutamiento para ahorrar costes, sino que utilizan el que creen que es el mejor modelo para cada consulta, por eficiencia. Parecía un acierto, pero ha llegado sin cumplir con lo que los usuarios esperan.

Altman reconoció los fallos de lanzamiento. Durante una sesión de preguntas (AMA) en Reddit realizada el viernes, Sam Altman leyó y observó que para muchos usuarios, GPT-5 no funcionaba tan bien como 4o. A ello respondió que el nuevo modelo parecía “más tonto”, porque el router no funcionaba bien cuando lo lanzaron el jueves.

Quien avisa no es traidor. El 19 de julio, tras anunciar un gran rendimiento en la olimpiada de matemáticas, Altman anunció que GPT-5 estaba a la vuelta de la esquina, frente a imágenes como la de la Estrella de la Muerte, se mostró cauto, afirmando querer establecer expectativas realistas:

  • “Este es un modelo experimental que incorpora nuevas técnicas de investigación que usaremos en modelos futuros”
  • “Creemos que os encantará GPT-5, pero no planeamos lanzar un modelo con el nivel de capacidad del oro de la olimpiada matemática durante muchos meses”

El caso recuerda al de Sora, que se mostró muy verde tras las promesas del anuncio inicial, o al de o3, que se lanzó con un rendimiento en benchmarks inferior al inicialmente prometido (desatando todo un debate sobre si ya estábamos en la AGI).

OpenAI ha tenido que hacer cambios. Ante las quejas, desde OpenAI tomaron una gran medida: devolver a los usuarios de la suscripción Plus la posibilidad de que los suscriptores del plan (de 20 euros al mes) vuelvan a usar 4o. Pero, además, han tocado el router para que elija mejor el modelo adecuado a cada consulta. Eso sí, sin explicar aún qué lleva a usar uno u otro.

El truco (si pagas). Cuando los usuarios percibieron que el problema del nuevo ChatGPT con GPT-5 no era el modelo en sí, sino que el router no recurriera al modelo razonador, se lanzaron a buscar formas de hacer que utilizara GPT-5 Thinking. La forma de hacerlo ha sido integrar frases como “piensa tu respuesta en profundidad” en las indicaciones, como sugería y demostró DotCSV.

De esta forma, se consigue que, para usuarios Plus, ChatGPT utilice el modelo Thinking sin gastar la cuota de 200 mensajes semanales del modo manual. Dicho truco no se aplica al modelo gratuito, que solo podía activar sin pedirlo GPT-5 Thinking de forma automática una vez al día.

Usar razonamiento gratis. Otro cambio confirmado por Altman ha sido integrar de nuevo (algo escondido) un botón de razonar para usar el modelo razonador en la versión gratuita. Probándolo, ChatGPT reconoce usar el modelo GPT-5 Thinking mini, y hemos podido usarlo en 10 mensajes. A partir de ahí, volvió a usar el modelo sin razonamiento. Es el sucesor de o4-mini, que en abril también recibió gratuitamente funciones de razonamiento con un botón de “Think”.

Resultado: más uso de razonamiento. Tras anunciar un incremento de los límites de razonamiento, Sam Altman ha ofrecido datos específicos del número de usuarios que utiliza razonamiento ahora frente a antes del lanzamiento, y lo que indica es lo poco que se utilizaba antes, incluso entre usuarios de pago.

Los usuarios gratis han pasado de menos de un 1% a un 7%, pero lo que más choca es que quienes pagaban el Plus solamente utilizaban un 7% de razonamiento, frente a un 24% de ahora. Sorprende en el sentido de que el razonamiento de o1 y o3 suponía una de las grandes ventajas frente al plan gratuito, así las capacidades de Deep Research.

Imagen | Xataka

En Xataka | Se acabaron las restricciones de chips a China: ahora la guerra tecnológica se parece más a un negocio con comisión del 15%


La noticia

ChatGPT ahora tiene un “router” que elige por nosotros qué modelo de GPT-5 usar. Y está eligiendo el más barato

fue publicada originalmente en

Xataka

por
Antonio Sabán

.

​El lanzamiento de GPT-5 no ha estado a la altura de lo esperado. En vez de sorprenderse con el salto generacional, demasiadas personas han echado de menos la calidez de GPT-4o. Sam Altman, CEO de OpenAI, anticipaba el lanzamiento del nuevo modelo con la Estrella de la Muerte, pero el hype se ha quedado muy lejos del de momentos wow como la generación de imágenes de ChatGPT, que llegó a “derretir” servidores. Uno de los culpables tiene nombre: “router” o enrutador.

Qué ha pasado. Tras el lío de nomenclaturas de modelos de OpenAI (que ya recuerda al lío de móviles de Xiaomi) y el hecho de hacer que el usuario tuviera que elegir cuál le convenía más, la compañía optó por lanzar todos los (sub)modelos de GPT-5 de forma unificada. Ahora el sistema elegiría el modelo que estimaba que más convenía para resolver la indicación. El encargado de dicha tarea es un “router”.

Este, “decide rápidamente qué modelo usar basándose en el tipo de conversación, la complejidad, o la necesidad de herramientas”. El problema es que en estos primeros días, el router se suele decantar demasiadas veces por el modelo básico de GPT-5, frente al modelo “Thinking” o razonador. Eso que ha hecho que la nueva generación sea vista como mucho más tonta de lo que Sam Altman llegó a afirmar (defendía que era como tener un equipo de doctores a tu disposición). El salto necesario parecía imposible, y en efecto, muchos usuarios no lo han sentido.

En Xataka

Qué hace GPT-5 en función de lo que estés dispuesto a pagar: un esquema para entender lo nuevo de OpenAI en ChatGPT

El problema. OpenAI decide qué modelo es más eficiente para el usuario, pero también qué modelo es más eficiente para sus servidores. En el lanzamiento de GPT-5, no han sido transparentes sobre qué les lleva a usar un modelo u otro, y han llegado los usuarios que les acusan de elegir el modelo más barato para ahorrar costes.

Aidan McLaughlin, empleado de OpenAI, defendía en X que prefiere GPT-5 sin razonamiento la mayoría (65%) de veces por cómo interactúa con el usuario. Aseguraba que no usan el enrutamiento para ahorrar costes, sino que utilizan el que creen que es el mejor modelo para cada consulta, por eficiencia. Parecía un acierto, pero ha llegado sin cumplir con lo que los usuarios esperan.

Altman reconoció los fallos de lanzamiento. Durante una sesión de preguntas (AMA) en Reddit realizada el viernes, Sam Altman leyó y observó que para muchos usuarios, GPT-5 no funcionaba tan bien como 4o. A ello respondió que el nuevo modelo parecía “más tonto”, porque el router no funcionaba bien cuando lo lanzaron el jueves.

Quien avisa no es traidor. El 19 de julio, tras anunciar un gran rendimiento en la olimpiada de matemáticas, Altman anunció que GPT-5 estaba a la vuelta de la esquina, frente a imágenes como la de la Estrella de la Muerte, se mostró cauto, afirmando querer establecer expectativas realistas:

“Este es un modelo experimental que incorpora nuevas técnicas de investigación que usaremos en modelos futuros”
“Creemos que os encantará GPT-5, pero no planeamos lanzar un modelo con el nivel de capacidad del oro de la olimpiada matemática durante muchos meses”

El caso recuerda al de Sora, que se mostró muy verde tras las promesas del anuncio inicial, o al de o3, que se lanzó con un rendimiento en benchmarks inferior al inicialmente prometido (desatando todo un debate sobre si ya estábamos en la AGI).

OpenAI ha tenido que hacer cambios. Ante las quejas, desde OpenAI tomaron una gran medida: devolver a los usuarios de la suscripción Plus la posibilidad de que los suscriptores del plan (de 20 euros al mes) vuelvan a usar 4o. Pero, además, han tocado el router para que elija mejor el modelo adecuado a cada consulta. Eso sí, sin explicar aún qué lleva a usar uno u otro.

El truco (si pagas). Cuando los usuarios percibieron que el problema del nuevo ChatGPT con GPT-5 no era el modelo en sí, sino que el router no recurriera al modelo razonador, se lanzaron a buscar formas de hacer que utilizara GPT-5 Thinking. La forma de hacerlo ha sido integrar frases como “piensa tu respuesta en profundidad” en las indicaciones, como sugería y demostró DotCSV.

De esta forma, se consigue que, para usuarios Plus, ChatGPT utilice el modelo Thinking sin gastar la cuota de 200 mensajes semanales del modo manual. Dicho truco no se aplica al modelo gratuito, que solo podía activar sin pedirlo GPT-5 Thinking de forma automática una vez al día.

Usar razonamiento gratis. Otro cambio confirmado por Altman ha sido integrar de nuevo (algo escondido) un botón de razonar para usar el modelo razonador en la versión gratuita. Probándolo, ChatGPT reconoce usar el modelo GPT-5 Thinking mini, y hemos podido usarlo en 10 mensajes. A partir de ahí, volvió a usar el modelo sin razonamiento. Es el sucesor de o4-mini, que en abril también recibió gratuitamente funciones de razonamiento con un botón de “Think”.

Resultado: más uso de razonamiento. Tras anunciar un incremento de los límites de razonamiento, Sam Altman ha ofrecido datos específicos del número de usuarios que utiliza razonamiento ahora frente a antes del lanzamiento, y lo que indica es lo poco que se utilizaba antes, incluso entre usuarios de pago.

Los usuarios gratis han pasado de menos de un 1% a un 7%, pero lo que más choca es que quienes pagaban el Plus solamente utilizaban un 7% de razonamiento, frente a un 24% de ahora. Sorprende en el sentido de que el razonamiento de o1 y o3 suponía una de las grandes ventajas frente al plan gratuito, así las capacidades de Deep Research.

Imagen | Xataka

En Xataka | Se acabaron las restricciones de chips a China: ahora la guerra tecnológica se parece más a un negocio con comisión del 15%

– La noticia

ChatGPT ahora tiene un “router” que elige por nosotros qué modelo de GPT-5 usar. Y está eligiendo el más barato

fue publicada originalmente en

Xataka

por
Antonio Sabán

.   

​   

​ 

Continue Reading
Click to comment

Leave a Reply

Your email address will not be published. Required fields are marked *