Ciencia y Tecnología
OpenAI acaba de tener su momento DeepSeek: su modelo no solo es potente y gratuito, sino que ha costado mucho menos
<p>
 <img src="https://i.blogs.es/6cc5cc/deepseek-openai/1024_2000.jpeg" alt="OpenAI acaba de tener su momento DeepSeek: su modelo no solo es potente y gratuito, sino que ha costado mucho menos ">
 </p>
<p>OpenAI lanzó ayer sus primeros modelos con pesos abiertos desde 2019: <a class="text-outboundlink" href="https://www.xataka.com/robotica-e-ia/openai-acaba-patear-tablero-ia-su-nuevo-modelo-gratuito-se-puede-descargar-para-usarlo-portatil" data-vars-post-title="OpenAI acaba de patear el tablero de la IA. Su nuevo modelo es gratuito y se puede descargar para usarlo desde el portátil" data-vars-post-url="https://www.xataka.com/robotica-e-ia/openai-acaba-patear-tablero-ia-su-nuevo-modelo-gratuito-se-puede-descargar-para-usarlo-portatil">gpt-oss-120b y gpt-oss-20b</a>. Dos sistemas de razonamiento que marcan un cambio radical en la estrategia de la empresa tras <a class="text-outboundlink" href="https://www.xataka.com/robotica-e-ia/deepseek-r1-no-es-solo-otro-modelo-de-ia-es-la-mayor-amenaza-existencial-que-ha-enfrentado-silicon-valley" data-vars-post-title=" DeepSeek R1 no es solo otro modelo de IA: es la mayor amenaza existencial que ha enfrentado Silicon Valley" data-vars-post-url="https://www.xataka.com/robotica-e-ia/deepseek-r1-no-es-solo-otro-modelo-de-ia-es-la-mayor-amenaza-existencial-que-ha-enfrentado-silicon-valley">el éxito de DeepSeek R1</a> a principios de año.</p>
<p><!-- BREAK 1 --></p>
<p><strong>Por qué es importante</strong>. OpenAI ha pasado de defender la seguridad de los modelos cerrados a reconocer que &#8220;estaba en el lado equivocado de la historia&#8221; con los modelos abiertos. El terremoto que provocó <a class="text-outboundlink" href="https://www.xataka.com/basics/deepseek-que-como-funciona-que-opciones-tiene-esta-inteligencia-artificial" data-vars-post-title="DeepSeek: qué es, cómo funciona y qué opciones tiene esta inteligencia artificial" data-vars-post-url="https://www.xataka.com/basics/deepseek-que-como-funciona-que-opciones-tiene-esta-inteligencia-artificial">DeepSeek</a> en enero les obligó a repensar toda su estrategia.</p>
<p><!-- BREAK 2 --></p>
<p><strong>El contexto</strong>. Hasta ahora, OpenAI había mantenido cerrados todos sus modelos desde <a class="text-outboundlink" href="https://www.xataka.com/inteligencia-artificial/gpt-2-que-sabemos-que-no-generador-textos-ia-que-openai-dice-haber-censurado-ser-demasiado-peligroso" data-vars-post-title="GPT-2: qué sabemos y qué no del generador de textos con IA que OpenAI dice haber censurado por ser demasiado peligroso" data-vars-post-url="https://www.xataka.com/inteligencia-artificial/gpt-2-que-sabemos-que-no-generador-textos-ia-que-openai-dice-haber-censurado-ser-demasiado-peligroso">GPT-2</a>, justificándolo por motivos de seguridad. Pero rivales como Meta con <a class="text-outboundlink" href="https://www.xataka.com/basics/que-llama-como-funciona-que-sabemos-inteligencia-artificial-meta" data-vars-post-title="Qué es LLaMA, cómo funciona y qué sabemos de la inteligencia artificial de Meta
" data-vars-post-url="https://www.xataka.com/basics/que-llama-como-funciona-que-sabemos-inteligencia-artificial-meta">Llama</a> y especialmente las empresas chinas con DeepSeek, <a class="text-outboundlink" href="https://www.xataka.com/basics/qwen-que-como-usar-inteligencia-artificial-alibaba-gratis-tener-que-pagar-cuotas" data-vars-post-title="Qwen: qué es y cómo usar la inteligencia artificial de Alibaba gratis sin tener que pagar cuotas" data-vars-post-url="https://www.xataka.com/basics/qwen-que-como-usar-inteligencia-artificial-alibaba-gratis-tener-que-pagar-cuotas">Qwen</a> y <a class="text-outboundlink" href="https://www.xataka.com/robotica-e-ia/deepseek-marco-punto-inflexion-carrera-ia-ahora-otra-empresa-china-quiere-imitar-su-exito-nace-kimi-k2" data-vars-post-title="DeepSeek marcó un punto de inflexión en la carrera de la IA. Ahora otra empresa china quiere imitar su éxito: nace Kimi K2" data-vars-post-url="https://www.xataka.com/robotica-e-ia/deepseek-marco-punto-inflexion-carrera-ia-ahora-otra-empresa-china-quiere-imitar-su-exito-nace-kimi-k2">Kimi</a> han ido ganando terreno en el ecosistema abierto.</p>
<p><!-- BREAK 3 --></p>
<p>El punto de inflexión llegó cuando DeepSeek R1 demostró que era posible crear modelos de razonamiento avanzados con una fracción del coste de los estadounidenses. Sam Altman admitió entonces que OpenAI necesitaba &#8220;encontrar una estrategia de código abierto diferente&#8221;. Y aquí está.</p>
<p><!-- BREAK 4 --></p>
<p><strong>En cifras</strong>:</p>
<ul>
<li>El modelo mayor, <a rel="noopener, noreferrer" href="https://huggingface.co/openai/gpt-oss-120b">gpt-oss-120b</a>, funciona en una sola GPU de 80 GB con apenas 5.100 millones de parámetros activos de sus 117.000 millones totales.</li>
<li>Su hermano pequeño, <a rel="noopener, noreferrer" href="https://huggingface.co/unsloth/gpt-oss-20b-bnb-4bit">gpt-oss-20b</a>, puede ejecutarse en un portátil con 16 GB de memoria (aunque la velocidad parece ser muy lenta con una configuración así, a falta de que lo podamos probar más a fondo).</li>
</ul>
<div class="article-asset article-asset-normal article-asset-center">
<div class="desvio-container">
<div class="desvio">
<div class="desvio-figure js-desvio-figure">
 <a href="https://www.xataka.com/robotica-e-ia/gpt-5-esta-siendo-camino-tortuoso-para-openai-apunta-a-realidad-incomoda-era-ia-volandonos-cabeza-se-acabo" class="pivot-outboundlink" data-vars-post-title="La IA está siguiendo los pasos de la industria de los móviles: GPT-5 no será un salto tan grande como otras versiones"><br />
 <img alt="La IA está siguiendo los pasos de la industria de los móviles: GPT-5 no será un salto tan grande como otras versiones" width="375" height="142" src="https://i.blogs.es/7842ac/gpt-5/375_142.jpeg"><br />
 </a>
 </div>
<div class="desvio-summary">
<div class="desvio-taxonomy js-desvio-taxonomy">
 <a href="https://www.xataka.com/robotica-e-ia/gpt-5-esta-siendo-camino-tortuoso-para-openai-apunta-a-realidad-incomoda-era-ia-volandonos-cabeza-se-acabo" class="desvio-taxonomy-anchor pivot-outboundlink" data-vars-post-title="La IA está siguiendo los pasos de la industria de los móviles: GPT-5 no será un salto tan grande como otras versiones">En Xataka</a>
 </div>
<p> <a href="https://www.xataka.com/robotica-e-ia/gpt-5-esta-siendo-camino-tortuoso-para-openai-apunta-a-realidad-incomoda-era-ia-volandonos-cabeza-se-acabo" class="desvio-title js-desvio-title pivot-outboundlink" data-vars-post-title="La IA está siguiendo los pasos de la industria de los móviles: GPT-5 no será un salto tan grande como otras versiones">La IA está siguiendo los pasos de la industria de los móviles: GPT-5 no será un salto tan grande como otras versiones</a>
 </div>
</p></div>
</p></div>
</div>
<p><strong>La situación actual</strong>. Los<em> benchmarks</em> independientes <a rel="noopener, noreferrer" href="https://www.linkedin.com/pulse/independent-benchmarks-openais-gpt-oss-models-gpt-oss-120b-4ci5c/">sitúan a gpt-oss-120b con una puntuación de 58 en el Índice de Inteligencia</a>, superando a o3-mini pero quedando por debajo de <a class="text-outboundlink" href="https://www.xataka.com/robotica-e-ia/openai-acaba-lanzar-o3-o4-mini-sus-modelos-razonadores-fin-hacen-que-ahora-era-imposible-para-ellos" data-vars-post-title="OpenAI acaba de lanzar O3 y O4-mini: sus modelos razonadores por fin hacen lo que hasta ahora era imposible para ellos" data-vars-post-url="https://www.xataka.com/robotica-e-ia/openai-acaba-lanzar-o3-o4-mini-sus-modelos-razonadores-fin-hacen-que-ahora-era-imposible-para-ellos">o3 y o4-mini</a>.</p>
<p><!-- BREAK 5 --></p>
<p>En tareas de programación competitiva alcanza 2622 puntos en Codeforces, mientras que DeepSeek R1 logra menos puntuación con un modelo muchísimo más pesado.</p>
<p><!-- BREAK 6 --></p>
<p><strong>En detalle</strong>. La arquitectura utiliza un sistema de <a class="text-outboundlink" href="https://www.xataka.com/robotica-e-ia/openai-acaba-emprender-camino-ambicioso-como-desafiante-entender-como-funciona-caja-negra-ia" data-vars-post-title="OpenAI acaba de emprender un camino tan ambicioso como desafiante: entender cómo funciona la 'caja negra' de la IA" data-vars-post-url="https://www.xataka.com/robotica-e-ia/openai-acaba-emprender-camino-ambicioso-como-desafiante-entender-como-funciona-caja-negra-ia">mezcla de expertos</a> (MoE, <em>Mixture of Experts</em>) que activa solo una fracción de los parámetros totales para cada consulta. Esto permite que el modelo de 120.000 millones de parámetros active solo el 4,4% en cada consulta, mientras que el de 20.000 millones activa el 17,2%.</p>
<p><!-- BREAK 7 --></p>
<p>Ambos modelos mantienen la capacidad de razonamiento en cadena sin supervisión directa, siguiendo el principio de que el razonamiento visible es necesario para detectar comportamientos indebidos.</p>
<p><!-- BREAK 8 --></p>
<p><strong>Sí, pero</strong>. OpenAI no ha hecho públicos los datos de entrenamiento, manteniendo parte del secreto. Tampoco incluye capacidades multimodales, limitándose solo a texto.</p>
<p><!-- BREAK 9 --></p>
<ul>
<li>Las alucinaciones son sensiblemente mayores que en sus modelos propietarios: 49% y 53% respectivamente frente al 16% de <a class="text-outboundlink" href="https://www.xataka.com/basics/gpt-o1-que-diferencias-como-acceder-al-nuevo-modelo-inteligencia-artificial-chatgpt" data-vars-post-title="GPT o1: qué es y diferencias, y cómo acceder al nuevo modelo de inteligencia artificial de ChatGPT" data-vars-post-url="https://www.xataka.com/basics/gpt-o1-que-diferencias-como-acceder-al-nuevo-modelo-inteligencia-artificial-chatgpt">o1</a>.</li>
</ul>
<p><strong>Entre líneas.</strong> Este lanzamiento responde tanto a la presión competitiva china como a la nueva administración Trump, que ha instado a las empresas estadounidenses a liberar más tecnología para &#8220;promover la adopción global de IA alineada con valores americanos&#8221;.</p>
<p><!-- BREAK 10 --></p>
<p>La empresa ha trabajado con socios como Orange, Snowflake y AI Sweden para casos de uso reales, buscando validar si las ventajas justifican seguir invirtiendo en modelos abiertos.</p>
<p><!-- BREAK 11 --></p>
<div class="article-asset-video article-asset-normal">
<div class="asset-content">
<div class="base-asset-video">
<div class="js-dailymotion"></div>
</p></div>
</p></div>
</div>
<p><strong>Profundiza.</strong> Los modelos están disponibles bajo licencia Apache 2.0 en plataformas como <a rel="noopener, noreferrer" href="https://huggingface.co/lmstudio-community/gpt-oss-20b-MLX-8bit">Hugging Face</a>, con soporte nativo en herramientas como Ollama, LM Studio y servicios <em>cloud</em> de los principales proveedores. <a rel="noopener, noreferrer" href="https://www.kaggle.com/competitions/openai-gpt-oss-20b-red-teaming/">OpenAI ha organizado un Red Teaming Challenge</a> con 500.000 dólares en premios para identificar riesgos de seguridad.</p>
<p><!-- BREAK 12 --></p>
<p>Esta es la respuesta de OpenAI a su momento DeepSeek: reconocer que la innovación abierta no solo es inevitable, sino necesaria para mantenerse competitivo en un panorama donde el coste y la accesibilidad importan tanto como el rendimiento.</p>
<p><!-- BREAK 13 --></p>
<p>En Xataka | <a class="text-outboundlink" href="https://www.xataka.com/robotica-e-ia/gpt-5-marcara-antes-despues-que-se-espera-nuevo-modelo-su-impacto-industria-tecnologica" data-vars-post-title="La paradoja de GPT-5: OpenAI necesita el salto más grande de la historia de la IA justo cuando más imposible parece" data-vars-post-url="https://www.xataka.com/robotica-e-ia/gpt-5-marcara-antes-despues-que-se-espera-nuevo-modelo-su-impacto-industria-tecnologica">La paradoja de GPT-5: OpenAI necesita el salto más grande de la historia de la IA justo cuando más imposible parece</a></p>
<p>Imagen destacada | <a rel="noopener, noreferrer" href="https://unsplash.com/es/@solenfeyissa?utm_content=creditCopyText&;utm_medium=referral&;utm_source=unsplash">Solen Feyissa</a>, b<a rel="noopener, noreferrer" href="https://unsplash.com/es/@solomin?utm_content=creditCopyText&;utm_medium=referral&;utm_source=unsplash">Dima Solomin</a></p>
<p> &#8211; <br /> La noticia<br />
 <a href="https://www.xataka.com/robotica-e-ia/openai-acaba-tener-su-momento-deepseek-su-modelo-no-solo-potente-gratuito-sino-que-ha-costado-mucho?utm_source=feedburner&;utm_medium=feed&;utm_campaign=06_Aug_2025"><br />
 <em> OpenAI acaba de tener su momento DeepSeek: su modelo no solo es potente y gratuito, sino que ha costado mucho menos </em><br />
 </a><br />
 fue publicada originalmente en<br />
 <a href="https://www.xataka.com/?utm_source=feedburner&;utm_medium=feed&;utm_campaign=06_Aug_2025"><br />
 <strong> Xataka </strong><br />
 </a><br />
 por <a href="https://www.xataka.com/autor/javier-lacort?utm_source=feedburner&;utm_medium=feed&;utm_campaign=06_Aug_2025"><br />
 Javier Lacort<br />
 </a><br />
 . </p>
<p>​OpenAI lanzó ayer sus primeros modelos con pesos abiertos desde 2019: gpt-oss-120b y gpt-oss-20b. Dos sistemas de razonamiento que marcan un cambio radical en la estrategia de la empresa tras el éxito de DeepSeek R1 a principios de año.</p>
<p>Por qué es importante. OpenAI ha pasado de defender la seguridad de los modelos cerrados a reconocer que &#8220;estaba en el lado equivocado de la historia&#8221; con los modelos abiertos. El terremoto que provocó DeepSeek en enero les obligó a repensar toda su estrategia.</p>
<p>El contexto. Hasta ahora, OpenAI había mantenido cerrados todos sus modelos desde GPT-2, justificándolo por motivos de seguridad. Pero rivales como Meta con Llama y especialmente las empresas chinas con DeepSeek, Qwen y Kimi han ido ganando terreno en el ecosistema abierto.</p>
<p>El punto de inflexión llegó cuando DeepSeek R1 demostró que era posible crear modelos de razonamiento avanzados con una fracción del coste de los estadounidenses. Sam Altman admitió entonces que OpenAI necesitaba &#8220;encontrar una estrategia de código abierto diferente&#8221;. Y aquí está.</p>
<p>En cifras:</p>
<p> El modelo mayor, gpt-oss-120b, funciona en una sola GPU de 80 GB con apenas 5.100 millones de parámetros activos de sus 117.000 millones totales.<br />
 Su hermano pequeño, gpt-oss-20b, puede ejecutarse en un portátil con 16 GB de memoria (aunque la velocidad parece ser muy lenta con una configuración así, a falta de que lo podamos probar más a fondo).</p>
<p> En Xataka</p>
<p> La IA está siguiendo los pasos de la industria de los móviles: GPT-5 no será un salto tan grande como otras versiones</p>
<p>La situación actual. Los benchmarks independientes sitúan a gpt-oss-120b con una puntuación de 58 en el Índice de Inteligencia, superando a o3-mini pero quedando por debajo de o3 y o4-mini.</p>
<p>En tareas de programación competitiva alcanza 2622 puntos en Codeforces, mientras que DeepSeek R1 logra menos puntuación con un modelo muchísimo más pesado.</p>
<p>En detalle. La arquitectura utiliza un sistema de mezcla de expertos (MoE, Mixture of Experts) que activa solo una fracción de los parámetros totales para cada consulta. Esto permite que el modelo de 120.000 millones de parámetros active solo el 4,4% en cada consulta, mientras que el de 20.000 millones activa el 17,2%.</p>
<p>Ambos modelos mantienen la capacidad de razonamiento en cadena sin supervisión directa, siguiendo el principio de que el razonamiento visible es necesario para detectar comportamientos indebidos.</p>
<p>Sí, pero. OpenAI no ha hecho públicos los datos de entrenamiento, manteniendo parte del secreto. Tampoco incluye capacidades multimodales, limitándose solo a texto.</p>
<p> Las alucinaciones son sensiblemente mayores que en sus modelos propietarios: 49% y 53% respectivamente frente al 16% de o1.</p>
<p>Entre líneas. Este lanzamiento responde tanto a la presión competitiva china como a la nueva administración Trump, que ha instado a las empresas estadounidenses a liberar más tecnología para &#8220;promover la adopción global de IA alineada con valores americanos&#8221;.</p>
<p>La empresa ha trabajado con socios como Orange, Snowflake y AI Sweden para casos de uso reales, buscando validar si las ventajas justifican seguir invirtiendo en modelos abiertos.</p>
<p>Profundiza. Los modelos están disponibles bajo licencia Apache 2.0 en plataformas como Hugging Face, con soporte nativo en herramientas como Ollama, LM Studio y servicios cloud de los principales proveedores. OpenAI ha organizado un Red Teaming Challenge con 500.000 dólares en premios para identificar riesgos de seguridad.</p>
<p>Esta es la respuesta de OpenAI a su momento DeepSeek: reconocer que la innovación abierta no solo es inevitable, sino necesaria para mantenerse competitivo en un panorama donde el coste y la accesibilidad importan tanto como el rendimiento.</p>
<p>En Xataka | La paradoja de GPT-5: OpenAI necesita el salto más grande de la historia de la IA justo cuando más imposible parece</p>
<p>Imagen destacada | Solen Feyissa, bDima Solomin</p>
<p> &#8211; La noticia</p>
<p> OpenAI acaba de tener su momento DeepSeek: su modelo no solo es potente y gratuito, sino que ha costado mucho menos </p>
<p> fue publicada originalmente en</p>
<p> Xataka </p>
<p> por<br />
 Javier Lacort</p>
<p> . </p>
<p>​ </p>
<p>​ </p>