Ciencia y Tecnología
OpenAI acaba de tener su momento DeepSeek: su modelo no solo es potente y gratuito, sino que ha costado mucho menos

OpenAI lanzó ayer sus primeros modelos con pesos abiertos desde 2019: gpt-oss-120b y gpt-oss-20b. Dos sistemas de razonamiento que marcan un cambio radical en la estrategia de la empresa tras el éxito de DeepSeek R1 a principios de año.
Por qué es importante. OpenAI ha pasado de defender la seguridad de los modelos cerrados a reconocer que “estaba en el lado equivocado de la historia” con los modelos abiertos. El terremoto que provocó DeepSeek en enero les obligó a repensar toda su estrategia.
El contexto. Hasta ahora, OpenAI había mantenido cerrados todos sus modelos desde GPT-2, justificándolo por motivos de seguridad. Pero rivales como Meta con Llama y especialmente las empresas chinas con DeepSeek, Qwen y Kimi han ido ganando terreno en el ecosistema abierto.
El punto de inflexión llegó cuando DeepSeek R1 demostró que era posible crear modelos de razonamiento avanzados con una fracción del coste de los estadounidenses. Sam Altman admitió entonces que OpenAI necesitaba “encontrar una estrategia de código abierto diferente”. Y aquí está.
En cifras:
- El modelo mayor, gpt-oss-120b, funciona en una sola GPU de 80 GB con apenas 5.100 millones de parámetros activos de sus 117.000 millones totales.
- Su hermano pequeño, gpt-oss-20b, puede ejecutarse en un portátil con 16 GB de memoria (aunque la velocidad parece ser muy lenta con una configuración así, a falta de que lo podamos probar más a fondo).
La situación actual. Los benchmarks independientes sitúan a gpt-oss-120b con una puntuación de 58 en el Índice de Inteligencia, superando a o3-mini pero quedando por debajo de o3 y o4-mini.
En tareas de programación competitiva alcanza 2622 puntos en Codeforces, mientras que DeepSeek R1 logra menos puntuación con un modelo muchísimo más pesado.
En detalle. La arquitectura utiliza un sistema de mezcla de expertos (MoE, Mixture of Experts) que activa solo una fracción de los parámetros totales para cada consulta. Esto permite que el modelo de 120.000 millones de parámetros active solo el 4,4% en cada consulta, mientras que el de 20.000 millones activa el 17,2%.
Ambos modelos mantienen la capacidad de razonamiento en cadena sin supervisión directa, siguiendo el principio de que el razonamiento visible es necesario para detectar comportamientos indebidos.
Sí, pero. OpenAI no ha hecho públicos los datos de entrenamiento, manteniendo parte del secreto. Tampoco incluye capacidades multimodales, limitándose solo a texto.
- Las alucinaciones son sensiblemente mayores que en sus modelos propietarios: 49% y 53% respectivamente frente al 16% de o1.
Entre líneas. Este lanzamiento responde tanto a la presión competitiva china como a la nueva administración Trump, que ha instado a las empresas estadounidenses a liberar más tecnología para “promover la adopción global de IA alineada con valores americanos”.
La empresa ha trabajado con socios como Orange, Snowflake y AI Sweden para casos de uso reales, buscando validar si las ventajas justifican seguir invirtiendo en modelos abiertos.
Profundiza. Los modelos están disponibles bajo licencia Apache 2.0 en plataformas como Hugging Face, con soporte nativo en herramientas como Ollama, LM Studio y servicios cloud de los principales proveedores. OpenAI ha organizado un Red Teaming Challenge con 500.000 dólares en premios para identificar riesgos de seguridad.
Esta es la respuesta de OpenAI a su momento DeepSeek: reconocer que la innovación abierta no solo es inevitable, sino necesaria para mantenerse competitivo en un panorama donde el coste y la accesibilidad importan tanto como el rendimiento.
Imagen destacada | Solen Feyissa, bDima Solomin
–
La noticia
OpenAI acaba de tener su momento DeepSeek: su modelo no solo es potente y gratuito, sino que ha costado mucho menos
fue publicada originalmente en
Xataka
por
Javier Lacort
.
OpenAI lanzó ayer sus primeros modelos con pesos abiertos desde 2019: gpt-oss-120b y gpt-oss-20b. Dos sistemas de razonamiento que marcan un cambio radical en la estrategia de la empresa tras el éxito de DeepSeek R1 a principios de año.
Por qué es importante. OpenAI ha pasado de defender la seguridad de los modelos cerrados a reconocer que “estaba en el lado equivocado de la historia” con los modelos abiertos. El terremoto que provocó DeepSeek en enero les obligó a repensar toda su estrategia.
El contexto. Hasta ahora, OpenAI había mantenido cerrados todos sus modelos desde GPT-2, justificándolo por motivos de seguridad. Pero rivales como Meta con Llama y especialmente las empresas chinas con DeepSeek, Qwen y Kimi han ido ganando terreno en el ecosistema abierto.
El punto de inflexión llegó cuando DeepSeek R1 demostró que era posible crear modelos de razonamiento avanzados con una fracción del coste de los estadounidenses. Sam Altman admitió entonces que OpenAI necesitaba “encontrar una estrategia de código abierto diferente”. Y aquí está.
En cifras:
El modelo mayor, gpt-oss-120b, funciona en una sola GPU de 80 GB con apenas 5.100 millones de parámetros activos de sus 117.000 millones totales.
Su hermano pequeño, gpt-oss-20b, puede ejecutarse en un portátil con 16 GB de memoria (aunque la velocidad parece ser muy lenta con una configuración así, a falta de que lo podamos probar más a fondo).
En Xataka
La IA está siguiendo los pasos de la industria de los móviles: GPT-5 no será un salto tan grande como otras versiones
La situación actual. Los benchmarks independientes sitúan a gpt-oss-120b con una puntuación de 58 en el Índice de Inteligencia, superando a o3-mini pero quedando por debajo de o3 y o4-mini.
En tareas de programación competitiva alcanza 2622 puntos en Codeforces, mientras que DeepSeek R1 logra menos puntuación con un modelo muchísimo más pesado.
En detalle. La arquitectura utiliza un sistema de mezcla de expertos (MoE, Mixture of Experts) que activa solo una fracción de los parámetros totales para cada consulta. Esto permite que el modelo de 120.000 millones de parámetros active solo el 4,4% en cada consulta, mientras que el de 20.000 millones activa el 17,2%.
Ambos modelos mantienen la capacidad de razonamiento en cadena sin supervisión directa, siguiendo el principio de que el razonamiento visible es necesario para detectar comportamientos indebidos.
Sí, pero. OpenAI no ha hecho públicos los datos de entrenamiento, manteniendo parte del secreto. Tampoco incluye capacidades multimodales, limitándose solo a texto.
Las alucinaciones son sensiblemente mayores que en sus modelos propietarios: 49% y 53% respectivamente frente al 16% de o1.
Entre líneas. Este lanzamiento responde tanto a la presión competitiva china como a la nueva administración Trump, que ha instado a las empresas estadounidenses a liberar más tecnología para “promover la adopción global de IA alineada con valores americanos”.
La empresa ha trabajado con socios como Orange, Snowflake y AI Sweden para casos de uso reales, buscando validar si las ventajas justifican seguir invirtiendo en modelos abiertos.
Profundiza. Los modelos están disponibles bajo licencia Apache 2.0 en plataformas como Hugging Face, con soporte nativo en herramientas como Ollama, LM Studio y servicios cloud de los principales proveedores. OpenAI ha organizado un Red Teaming Challenge con 500.000 dólares en premios para identificar riesgos de seguridad.
Esta es la respuesta de OpenAI a su momento DeepSeek: reconocer que la innovación abierta no solo es inevitable, sino necesaria para mantenerse competitivo en un panorama donde el coste y la accesibilidad importan tanto como el rendimiento.
En Xataka | La paradoja de GPT-5: OpenAI necesita el salto más grande de la historia de la IA justo cuando más imposible parece
Imagen destacada | Solen Feyissa, bDima Solomin
– La noticia
OpenAI acaba de tener su momento DeepSeek: su modelo no solo es potente y gratuito, sino que ha costado mucho menos
fue publicada originalmente en
Xataka
por
Javier Lacort
.