Ciencia y Tecnología
ChatGPT ahora tiene un “router” que elige por nosotros qué modelo de GPT-5 usar. Y está eligiendo el más barato
<p>
 <img src="https://i.blogs.es/9033d8/openai/1024_2000.jpeg" alt='ChatGPT ahora tiene un "router" que elige por nosotros qué modelo de GPT-5 usar. Y está eligiendo el más barato'>
 </p>
<p>El lanzamiento de <a class="text-outboundlink" href="https://www.xataka.com/robotica-e-ia/gpt-5-esta-aqui-asi-lanzamiento-inteligencia-artificial-esperado-openai-carrera-cada-vez-renida" data-vars-post-title='OpenAI lanza GPT-5: un enorme modelo "unificado" con el que la empresa aspira a dar un gran salto respecto a los anteriores' data-vars-post-url="https://www.xataka.com/robotica-e-ia/gpt-5-esta-aqui-asi-lanzamiento-inteligencia-artificial-esperado-openai-carrera-cada-vez-renida">GPT-5</a> no ha estado a la altura de lo esperado. En vez de sorprenderse con el salto generacional, demasiadas personas han <a class="text-outboundlink" href="https://www.xataka.com/robotica-e-ia/parecia-que-gpt-5-iba-a-ser-exito-rotundo-que-demasiadas-personas-echaron-calidez-gpt-4o" data-vars-post-title='OpenAI ha encontrado un problema con GPT-5: demasiada gente echa de menos la "calidez" de GPT-4o' data-vars-post-url="https://www.xataka.com/robotica-e-ia/parecia-que-gpt-5-iba-a-ser-exito-rotundo-que-demasiadas-personas-echaron-calidez-gpt-4o">echado de menos la calidez de GPT-4o</a>. Sam Altman, CEO de OpenAI, anticipaba el lanzamiento del <a rel="noopener, noreferrer" href="https://x.com/sama/status/1953264193890861114">nuevo modelo con la Estrella de la Muerte</a>, pero el <em>hype</em> se ha quedado muy lejos del de momentos <em>wow</em> como la <a class="text-outboundlink" href="https://www.xataka.com/robotica-e-ia/ia-llevaba-mucho-tiempo-emocionarnos-interesarnos-alla-nicho-eso-ha-cambiado-estilo-miyazaki" data-vars-post-title="La IA llevaba mucho tiempo sin emocionarnos ni interesarnos más allá del nicho. Eso lo ha cambiado el estilo Miyazaki " data-vars-post-url="https://www.xataka.com/robotica-e-ia/ia-llevaba-mucho-tiempo-emocionarnos-interesarnos-alla-nicho-eso-ha-cambiado-estilo-miyazaki">generación de imágenes de ChatGPT</a>, que llegó a <a class="text-outboundlink" href="https://www.xataka.com/robotica-e-ia/fiebre-imagenes-chatgpt-esta-derritiendo-gpu-openai-compania-ha-empezado-a-limitar-acceso" data-vars-post-title="La fiebre por las imágenes de ChatGPT está “derritiendo” las GPU de OpenAI: la compañía ya ha empezado a limitar el acceso" data-vars-post-url="https://www.xataka.com/robotica-e-ia/fiebre-imagenes-chatgpt-esta-derritiendo-gpu-openai-compania-ha-empezado-a-limitar-acceso">&#8220;derretir&#8221; servidores</a>. Uno de los culpables tiene nombre: &#8220;router&#8221; o enrutador.</p>
<p><!-- BREAK 1 --></p>
<p><strong>Qué ha pasado. </strong>Tras el <a class="text-outboundlink" href="https://www.xataka.com/robotica-e-ia/hemos-ordenado-todos-modelos-ia-openai-para-entender-sus-nombres-no-hemos-entendido-nada" data-vars-post-title="ChatGPT, o1, o3-mini, GPT-4o: OpenAI tiene un problema muy evidente con sus modelos IA y es su nombre" data-vars-post-url="https://www.xataka.com/robotica-e-ia/hemos-ordenado-todos-modelos-ia-openai-para-entender-sus-nombres-no-hemos-entendido-nada">lío de nomenclaturas de modelos</a> de OpenAI (que ya <a class="text-outboundlink" href="https://www.xataka.com/moviles/entendiendo-lio-moviles-xiaomi-poco-orden-amplio-caotico-catalogo-xiaomi-espana-1" data-vars-post-title="Entendiendo el lío de móviles Xiaomi: un poco de orden en el amplio (y caótico) catálogo de Xiaomi en España" data-vars-post-url="https://www.xataka.com/moviles/entendiendo-lio-moviles-xiaomi-poco-orden-amplio-caotico-catalogo-xiaomi-espana-1">recuerda al lío de móviles de Xiaom</a>i) y el hecho de hacer que el usuario tuviera que elegir cuál le convenía más, la compañía optó por lanzar todos los (sub)modelos de GPT-5 de forma unificada. Ahora el sistema elegiría el modelo que estimaba que más convenía para resolver la indicación. El encargado de dicha tarea es un &#8220;router&#8221;.</p>
<p><!-- BREAK 2 --></p>
<p>Este, &#8220;decide rápidamente qué modelo usar basándose en el tipo de conversación, la complejidad, o la necesidad de herramientas&#8221;. El problema es que en estos primeros días, el router se suele decantar demasiadas veces por el modelo básico de GPT-5, frente al modelo &#8220;Thinking&#8221; o razonador. Eso que ha hecho que la nueva generación sea vista como mucho más tonta de lo que Sam Altman llegó a afirmar (defendía que era como<a rel="noopener, noreferrer" href="https://www.bbc.com/news/articles/cy5prvgw0r1o"> tener un equipo de doctores</a> a tu disposición). El salto necesario <a class="text-outboundlink" href="https://www.xataka.com/robotica-e-ia/gpt-5-marcara-antes-despues-que-se-espera-nuevo-modelo-su-impacto-industria-tecnologica" data-vars-post-title="La paradoja de GPT-5: OpenAI necesita el salto más grande de la historia de la IA justo cuando más imposible parece" data-vars-post-url="https://www.xataka.com/robotica-e-ia/gpt-5-marcara-antes-despues-que-se-espera-nuevo-modelo-su-impacto-industria-tecnologica">parecía imposible</a>, y en efecto, muchos usuarios no lo han sentido.</p>
<p><!-- BREAK 3 --></p>
<div class="article-asset article-asset-normal article-asset-center">
<div class="desvio-container">
<div class="desvio">
<div class="desvio-figure js-desvio-figure">
 <a href="https://www.xataka.com/robotica-e-ia/que-hace-gpt-5-funcion-que-estes-dispuesto-a-pagar-esquema-para-entender-nuevo-openai-chatgpt" class="pivot-outboundlink" data-vars-post-title="Qué hace GPT-5 en función de lo que estés dispuesto a pagar: un esquema para entender lo nuevo de OpenAI en ChatGPT"><br />
 <img alt="Qué hace GPT-5 en función de lo que estés dispuesto a pagar: un esquema para entender lo nuevo de OpenAI en ChatGPT" width="375" height="142" src="https://i.blogs.es/20adcf/pagar-gpt-5-portada/375_142.jpeg"><br />
 </a>
 </div>
<div class="desvio-summary">
<div class="desvio-taxonomy js-desvio-taxonomy">
 <a href="https://www.xataka.com/robotica-e-ia/que-hace-gpt-5-funcion-que-estes-dispuesto-a-pagar-esquema-para-entender-nuevo-openai-chatgpt" class="desvio-taxonomy-anchor pivot-outboundlink" data-vars-post-title="Qué hace GPT-5 en función de lo que estés dispuesto a pagar: un esquema para entender lo nuevo de OpenAI en ChatGPT">En Xataka</a>
 </div>
<p> <a href="https://www.xataka.com/robotica-e-ia/que-hace-gpt-5-funcion-que-estes-dispuesto-a-pagar-esquema-para-entender-nuevo-openai-chatgpt" class="desvio-title js-desvio-title pivot-outboundlink" data-vars-post-title="Qué hace GPT-5 en función de lo que estés dispuesto a pagar: un esquema para entender lo nuevo de OpenAI en ChatGPT">Qué hace GPT-5 en función de lo que estés dispuesto a pagar: un esquema para entender lo nuevo de OpenAI en ChatGPT</a>
 </div>
</p></div>
</p></div>
</div>
<p><strong>El problema</strong>. OpenAI decide qué modelo es más eficiente para el usuario, pero también qué modelo es más eficiente para sus servidores. En el lanzamiento de GPT-5, no han sido transparentes sobre qué les lleva a usar un modelo u otro, y han llegado los usuarios que les acusan de elegir el modelo más barato para <a rel="noopener, noreferrer" href="https://x.com/AlexGrama/status/1954612595895259401">ahorrar costes</a>.</p>
<p><!-- BREAK 4 --></p>
<p>Aidan McLaughlin, empleado de OpenAI, <a rel="noopener, noreferrer" href="https://x.com/aidan_mclau/status/1954610361174278205">defendía en X</a> que prefiere GPT-5 sin razonamiento la mayoría (65%) de veces por cómo interactúa con el usuario. Aseguraba que no usan el enrutamiento para ahorrar costes, sino que utilizan el que creen que es el mejor modelo para cada consulta, por eficiencia. <a class="text-outboundlink" href="https://www.xataka.com/robotica-e-ia/gpt-5-cambia-reglas-para-quienes-usan-chatgpt-mejor-modelo-esta-donde-siempre-debio-estar" data-vars-post-title="GPTâ5 cambia las reglas para quienes usan ChatGPT: lo mejor del modelo está donde siempre debió estar" data-vars-post-url="https://www.xataka.com/robotica-e-ia/gpt-5-cambia-reglas-para-quienes-usan-chatgpt-mejor-modelo-esta-donde-siempre-debio-estar">Parecía un acierto</a>, pero ha llegado sin cumplir con lo que los usuarios esperan.</p>
<p><!-- BREAK 5 --></p>
<p><strong>Altman reconoció los fallos de lanzamiento</strong>. Durante una sesión de preguntas (AMA) en Reddit realizada el viernes, Sam Altman leyó y observó que para muchos usuarios, GPT-5 no funcionaba tan bien como 4o. A ello <a rel="noopener, noreferrer" href="https://www.reddit.com/r/ChatGPT/comments/1mkae1l/comment/n7n5aas/?context=3">respondió</a> que el nuevo modelo parecía &#8220;más tonto&#8221;, porque el router no funcionaba bien cuando lo lanzaron el jueves.</p>
<p><!-- BREAK 6 --></p>
<p><strong>Quien avisa no es traidor</strong>. El 19 de julio, tras anunciar un gran rendimiento en <a class="text-outboundlink" href="https://www.xataka.com/robotica-e-ia/oro-historico-ia-olimpiada-matematicas-nos-prepara-para-algo-muy-grande-fin-problemas-matematicos-solucion" data-vars-post-title='La llegada de la IA a las matemáticas va más allá de una "revolución": está llegando a donde los matemáticos humanos no soñaron' data-vars-post-url="https://www.xataka.com/robotica-e-ia/oro-historico-ia-olimpiada-matematicas-nos-prepara-para-algo-muy-grande-fin-problemas-matematicos-solucion">la olimpiada de matemáticas</a>, Altman anunció que GPT-5 estaba a la vuelta de la esquina, frente a imágenes como la de la Estrella de la Muerte, se mostró cauto, afirmando querer establecer expectativas realistas:</p>
<p><!-- BREAK 7 --></p>
<ul>
<li>&#8220;Este es un modelo experimental que incorpora nuevas técnicas de investigación que usaremos en modelos futuros&#8221;</li>
<li>&#8220;Creemos que os encantará GPT-5, pero no planeamos lanzar un modelo con el nivel de capacidad del oro de la olimpiada matemática durante muchos meses&#8221;</li>
</ul>
<p>El caso recuerda al de Sora, que se mostró<a class="text-outboundlink" href="https://www.xataka.com/robotica-e-ia/sora-esta-muy-verde-como-generador-videos-ia-cuestion-que-openai-ha-lanzado-igualmente" data-vars-post-title="Sora está muy verde como generador de vídeos IA: la cuestión es por qué OpenAI lo ha lanzado igualmente " data-vars-post-url="https://www.xataka.com/robotica-e-ia/sora-esta-muy-verde-como-generador-videos-ia-cuestion-que-openai-ha-lanzado-igualmente"> muy verde</a> tras las <a class="text-outboundlink" href="https://www.xataka.com/robotica-e-ia/openai-tiene-a-famosisimo-chatgpt-dall-e-ahora-ha-presentado-a-sora-sorprendente-modelo-texto-a-video" data-vars-post-title="OpenAI presenta Sora, su nueva herramienta para generar vídeo a partir de texto: otro salto en el desarrollo de la IA" data-vars-post-url="https://www.xataka.com/robotica-e-ia/openai-tiene-a-famosisimo-chatgpt-dall-e-ahora-ha-presentado-a-sora-sorprendente-modelo-texto-a-video">promesas del anuncio inicial</a>, o al de o3, que se lanzó con un rendimiento en benchmarks <a rel="noopener, noreferrer" href="https://techcrunch.com/2025/04/20/openais-o3-ai-model-scores-lower-on-a-benchmark-than-the-company-initially-implied/">inferior al inicialmente prometido</a> (desatando todo <a class="text-outboundlink" href="https://www.xataka.com/robotica-e-ia/o3-promete-salto-brutal-respecto-a-ia-actual-eso-justo-que-openai-necesita" data-vars-post-title="o3 puntúa tan alto como programadores humanos en un de razonamiento y abstracción. Es justo lo que OpenAI necesita" data-vars-post-url="https://www.xataka.com/robotica-e-ia/o3-promete-salto-brutal-respecto-a-ia-actual-eso-justo-que-openai-necesita">un debate sobre si ya estábamos en la AGI)</a>.</p>
<p><!-- BREAK 8 --></p>
<p><strong>OpenAI ha tenido que hacer cambios. </strong>Ante las quejas, desde OpenAI tomaron una gran medida: devolver a los usuarios de la suscripción Plus la posibilidad de que los suscriptores del plan (de 20 euros al mes) vuelvan a usar 4o. Pero, además, han tocado el router para que elija mejor el modelo adecuado a cada consulta. Eso sí, sin explicar aún qué lleva a usar uno u otro.</p>
<p><!-- BREAK 9 --></p>
<div class="article-asset-video article-asset-large article-asset-center">
<div class="asset-content">
<div class="base-asset-video">
<div class="js-dailymotion"></div>
</p></div>
</p></div>
</div>
<p><strong>El truco (si pagas). </strong>Cuando los usuarios percibieron que el problema del nuevo ChatGPT con GPT-5 no era el modelo en sí, sino que el router no recurriera al modelo razonador, se lanzaron a buscar formas de hacer que utilizara GPT-5 Thinking. La forma de hacerlo ha sido integrar frases como &#8220;piensa tu respuesta en profundidad&#8221; en las indicaciones, como sugería y demostró <a rel="noopener, noreferrer" href="https://www.youtube.com/watch?v=0td-sEINlsY">DotCSV</a>.</p>
<p><!-- BREAK 10 --></p>
<p>De esta forma, se consigue que, para usuarios Plus, ChatGPT utilice el modelo Thinking <a class="text-outboundlink" href="https://www.genbeta.com/inteligencia-artificial/estos-limites-uso-gpt-5-chatgpt-sus-diferentes-planes-cuando-pagues-mejor-te-parecera" data-vars-post-title="Estos son los límites de uso de GPT-5 en ChatGPT en sus diferentes planes. Cuando más pagues, mejor te parecerá " data-vars-post-url="https://www.genbeta.com/inteligencia-artificial/estos-limites-uso-gpt-5-chatgpt-sus-diferentes-planes-cuando-pagues-mejor-te-parecera">sin gastar la cuota de 200 mensajes semanales</a> del modo manual. Dicho truco no se aplica al modelo gratuito, que solo podía activar sin pedirlo GPT-5 Thinking de forma automática una vez al día.</p>
<p><!-- BREAK 11 --></p>
<p><strong>Usar razonamiento gratis</strong>. Otro cambio confirmado por Altman ha sido integrar de nuevo (algo escondido) un botón de razonar para usar el modelo razonador en la versión gratuita. Probándolo, ChatGPT reconoce usar el modelo GPT-5 Thinking mini, y hemos podido usarlo en 10 mensajes. A partir de ahí, volvió a usar el modelo sin razonamiento. Es el sucesor de <a class="text-outboundlink" href="https://www.xataka.com/robotica-e-ia/openai-acaba-lanzar-o3-o4-mini-sus-modelos-razonadores-fin-hacen-que-ahora-era-imposible-para-ellos" data-vars-post-title="OpenAI acaba de lanzar O3 y O4-mini: sus modelos razonadores por fin hacen lo que hasta ahora era imposible para ellos" data-vars-post-url="https://www.xataka.com/robotica-e-ia/openai-acaba-lanzar-o3-o4-mini-sus-modelos-razonadores-fin-hacen-que-ahora-era-imposible-para-ellos">o4-mini</a>, que en abril también recibió gratuitamente <a rel="noopener, noreferrer" href="https://openai.com/es-ES/index/introducing-o3-and-o4-mini/">funciones de razonamiento</a> con un botón de &#8220;Think&#8221;.</p>
<p><!-- BREAK 12 --></p>
<p><strong>Resultado: más uso de razonamiento. </strong>Tras anunciar un incremento de los límites de razonamiento, Sam Altman ha ofrecido <a rel="noopener, noreferrer" href="https://x.com/sama/status/1954603417252532479">datos específicos</a> del número de usuarios que utiliza razonamiento ahora frente a antes del lanzamiento, y lo que indica es lo poco que se utilizaba antes, incluso entre usuarios de pago.</p>
<p><!-- BREAK 13 --></p>
<p>Los usuarios gratis han pasado de menos de un 1% a un 7%, pero lo que más choca es que quienes pagaban el Plus solamente utilizaban un 7% de razonamiento, frente a un 24% de ahora. Sorprende en el sentido de que el razonamiento de o1 y o3 suponía una de las grandes ventajas frente al plan gratuito, así las capacidades de <a class="text-outboundlink" href="https://www.xataka.com/robotica-e-ia/deep-research-no-solo-nueva-funcion-ia-principio-fin-trabajo-intelectual-tal-como-conocemos" data-vars-post-title="Deep Research no es solo una nueva función de IA. Es el principio del fin del trabajo intelectual tal y como lo conocemos" data-vars-post-url="https://www.xataka.com/robotica-e-ia/deep-research-no-solo-nueva-funcion-ia-principio-fin-trabajo-intelectual-tal-como-conocemos">Deep Research</a>.</p>
<p><!-- BREAK 14 --></p>
<p>Imagen | Xataka</p>
<p>En Xataka | <a class="text-outboundlink" href="https://www.xataka.com/robotica-e-ia/nvidia-amd-podran-vender-sus-chips-ia-a-china-alucinante-que-para-lograrlo-le-daran-a-eeuu-tajada-15" data-vars-post-title="Se acabaron las restricciones de chips a China: ahora la guerra tecnológica se parece más a un negocio con comisión del 15%" data-vars-post-url="https://www.xataka.com/robotica-e-ia/nvidia-amd-podran-vender-sus-chips-ia-a-china-alucinante-que-para-lograrlo-le-daran-a-eeuu-tajada-15">Se acabaron las restricciones de chips a China: ahora la guerra tecnológica se parece más a un negocio con comisión del 15%</a></p>
<p> &#8211; <br /> La noticia<br />
 <a href="https://www.xataka.com/robotica-e-ia/chatgpt-ahora-tiene-router-que-elige-nosotros-que-modelo-gpt-5-usar-esta-eligiendo-barato?utm_source=feedburner&;utm_medium=feed&;utm_campaign=11_Aug_2025"><br />
 <em> ChatGPT ahora tiene un &#8220;router&#8221; que elige por nosotros qué modelo de GPT-5 usar. Y está eligiendo el más barato </em><br />
 </a><br />
 fue publicada originalmente en<br />
 <a href="https://www.xataka.com/?utm_source=feedburner&;utm_medium=feed&;utm_campaign=11_Aug_2025"><br />
 <strong> Xataka </strong><br />
 </a><br />
 por <a href="https://www.xataka.com/autor/antonio-saban?utm_source=feedburner&;utm_medium=feed&;utm_campaign=11_Aug_2025"><br />
 Antonio Sabán<br />
 </a><br />
 . </p>
<p>​El lanzamiento de GPT-5 no ha estado a la altura de lo esperado. En vez de sorprenderse con el salto generacional, demasiadas personas han echado de menos la calidez de GPT-4o. Sam Altman, CEO de OpenAI, anticipaba el lanzamiento del nuevo modelo con la Estrella de la Muerte, pero el hype se ha quedado muy lejos del de momentos wow como la generación de imágenes de ChatGPT, que llegó a &#8220;derretir&#8221; servidores. Uno de los culpables tiene nombre: &#8220;router&#8221; o enrutador.</p>
<p>Qué ha pasado. Tras el lío de nomenclaturas de modelos de OpenAI (que ya recuerda al lío de móviles de Xiaomi) y el hecho de hacer que el usuario tuviera que elegir cuál le convenía más, la compañía optó por lanzar todos los (sub)modelos de GPT-5 de forma unificada. Ahora el sistema elegiría el modelo que estimaba que más convenía para resolver la indicación. El encargado de dicha tarea es un &#8220;router&#8221;.</p>
<p>Este, &#8220;decide rápidamente qué modelo usar basándose en el tipo de conversación, la complejidad, o la necesidad de herramientas&#8221;. El problema es que en estos primeros días, el router se suele decantar demasiadas veces por el modelo básico de GPT-5, frente al modelo &#8220;Thinking&#8221; o razonador. Eso que ha hecho que la nueva generación sea vista como mucho más tonta de lo que Sam Altman llegó a afirmar (defendía que era como tener un equipo de doctores a tu disposición). El salto necesario parecía imposible, y en efecto, muchos usuarios no lo han sentido.</p>
<p> En Xataka</p>
<p> Qué hace GPT-5 en función de lo que estés dispuesto a pagar: un esquema para entender lo nuevo de OpenAI en ChatGPT</p>
<p>El problema. OpenAI decide qué modelo es más eficiente para el usuario, pero también qué modelo es más eficiente para sus servidores. En el lanzamiento de GPT-5, no han sido transparentes sobre qué les lleva a usar un modelo u otro, y han llegado los usuarios que les acusan de elegir el modelo más barato para ahorrar costes.</p>
<p>Aidan McLaughlin, empleado de OpenAI, defendía en X que prefiere GPT-5 sin razonamiento la mayoría (65%) de veces por cómo interactúa con el usuario. Aseguraba que no usan el enrutamiento para ahorrar costes, sino que utilizan el que creen que es el mejor modelo para cada consulta, por eficiencia. Parecía un acierto, pero ha llegado sin cumplir con lo que los usuarios esperan.</p>
<p>Altman reconoció los fallos de lanzamiento. Durante una sesión de preguntas (AMA) en Reddit realizada el viernes, Sam Altman leyó y observó que para muchos usuarios, GPT-5 no funcionaba tan bien como 4o. A ello respondió que el nuevo modelo parecía &#8220;más tonto&#8221;, porque el router no funcionaba bien cuando lo lanzaron el jueves.</p>
<p>Quien avisa no es traidor. El 19 de julio, tras anunciar un gran rendimiento en la olimpiada de matemáticas, Altman anunció que GPT-5 estaba a la vuelta de la esquina, frente a imágenes como la de la Estrella de la Muerte, se mostró cauto, afirmando querer establecer expectativas realistas:</p>
<p> &#8220;Este es un modelo experimental que incorpora nuevas técnicas de investigación que usaremos en modelos futuros&#8221;<br />
 &#8220;Creemos que os encantará GPT-5, pero no planeamos lanzar un modelo con el nivel de capacidad del oro de la olimpiada matemática durante muchos meses&#8221;</p>
<p>El caso recuerda al de Sora, que se mostró muy verde tras las promesas del anuncio inicial, o al de o3, que se lanzó con un rendimiento en benchmarks inferior al inicialmente prometido (desatando todo un debate sobre si ya estábamos en la AGI).</p>
<p>OpenAI ha tenido que hacer cambios. Ante las quejas, desde OpenAI tomaron una gran medida: devolver a los usuarios de la suscripción Plus la posibilidad de que los suscriptores del plan (de 20 euros al mes) vuelvan a usar 4o. Pero, además, han tocado el router para que elija mejor el modelo adecuado a cada consulta. Eso sí, sin explicar aún qué lleva a usar uno u otro.</p>
<p>El truco (si pagas). Cuando los usuarios percibieron que el problema del nuevo ChatGPT con GPT-5 no era el modelo en sí, sino que el router no recurriera al modelo razonador, se lanzaron a buscar formas de hacer que utilizara GPT-5 Thinking. La forma de hacerlo ha sido integrar frases como &#8220;piensa tu respuesta en profundidad&#8221; en las indicaciones, como sugería y demostró DotCSV.</p>
<p>De esta forma, se consigue que, para usuarios Plus, ChatGPT utilice el modelo Thinking sin gastar la cuota de 200 mensajes semanales del modo manual. Dicho truco no se aplica al modelo gratuito, que solo podía activar sin pedirlo GPT-5 Thinking de forma automática una vez al día.</p>
<p>Usar razonamiento gratis. Otro cambio confirmado por Altman ha sido integrar de nuevo (algo escondido) un botón de razonar para usar el modelo razonador en la versión gratuita. Probándolo, ChatGPT reconoce usar el modelo GPT-5 Thinking mini, y hemos podido usarlo en 10 mensajes. A partir de ahí, volvió a usar el modelo sin razonamiento. Es el sucesor de o4-mini, que en abril también recibió gratuitamente funciones de razonamiento con un botón de &#8220;Think&#8221;.</p>
<p>Resultado: más uso de razonamiento. Tras anunciar un incremento de los límites de razonamiento, Sam Altman ha ofrecido datos específicos del número de usuarios que utiliza razonamiento ahora frente a antes del lanzamiento, y lo que indica es lo poco que se utilizaba antes, incluso entre usuarios de pago.</p>
<p>Los usuarios gratis han pasado de menos de un 1% a un 7%, pero lo que más choca es que quienes pagaban el Plus solamente utilizaban un 7% de razonamiento, frente a un 24% de ahora. Sorprende en el sentido de que el razonamiento de o1 y o3 suponía una de las grandes ventajas frente al plan gratuito, así las capacidades de Deep Research.</p>
<p>Imagen | Xataka</p>
<p>En Xataka | Se acabaron las restricciones de chips a China: ahora la guerra tecnológica se parece más a un negocio con comisión del 15%</p>
<p> &#8211; La noticia</p>
<p> ChatGPT ahora tiene un &#8220;router&#8221; que elige por nosotros qué modelo de GPT-5 usar. Y está eligiendo el más barato </p>
<p> fue publicada originalmente en</p>
<p> Xataka </p>
<p> por<br />
 Antonio Sabán</p>
<p> . </p>
<p>​ </p>
<p>​ </p>