Ciencia y Tecnología

OpenAI acaba de tener su momento DeepSeek: su modelo no solo es potente y gratuito, sino que ha costado mucho menos

Published

on

<p>&NewLine; <img src&equals;"https&colon;&sol;&sol;i&period;blogs&period;es&sol;6cc5cc&sol;deepseek-openai&sol;1024&lowbar;2000&period;jpeg" alt&equals;"OpenAI acaba de tener su momento DeepSeek&colon; su modelo no solo es potente y gratuito&comma; sino que ha costado mucho menos ">&NewLine; <&sol;p>&NewLine;<p>OpenAI lanzó ayer sus primeros modelos con pesos abiertos desde 2019&colon; <a class&equals;"text-outboundlink" href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;openai-acaba-patear-tablero-ia-su-nuevo-modelo-gratuito-se-puede-descargar-para-usarlo-portatil" data-vars-post-title&equals;"OpenAI acaba de patear el tablero de la IA&period; Su nuevo modelo es gratuito y se puede descargar para usarlo desde el portátil" data-vars-post-url&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;openai-acaba-patear-tablero-ia-su-nuevo-modelo-gratuito-se-puede-descargar-para-usarlo-portatil">gpt-oss-120b y gpt-oss-20b<&sol;a>&period; Dos sistemas de razonamiento que marcan un cambio radical en la estrategia de la empresa tras <a class&equals;"text-outboundlink" href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;deepseek-r1-no-es-solo-otro-modelo-de-ia-es-la-mayor-amenaza-existencial-que-ha-enfrentado-silicon-valley" data-vars-post-title&equals;" DeepSeek R1 no es solo otro modelo de IA&colon; es la mayor amenaza existencial que ha enfrentado Silicon Valley" data-vars-post-url&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;deepseek-r1-no-es-solo-otro-modelo-de-ia-es-la-mayor-amenaza-existencial-que-ha-enfrentado-silicon-valley">el éxito de DeepSeek R1<&sol;a> a principios de año&period;<&sol;p>&NewLine;<p><&excl;-- BREAK 1 --><&sol;p>&NewLine;<p><strong>Por qué es importante<&sol;strong>&period; OpenAI ha pasado de defender la seguridad de los modelos cerrados a reconocer que &&num;8220&semi;estaba en el lado equivocado de la historia&&num;8221&semi; con los modelos abiertos&period; El terremoto que provocó <a class&equals;"text-outboundlink" href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;basics&sol;deepseek-que-como-funciona-que-opciones-tiene-esta-inteligencia-artificial" data-vars-post-title&equals;"DeepSeek&colon; qué es&comma; cómo funciona y qué opciones tiene esta inteligencia artificial" data-vars-post-url&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;basics&sol;deepseek-que-como-funciona-que-opciones-tiene-esta-inteligencia-artificial">DeepSeek<&sol;a> en enero les obligó a repensar toda su estrategia&period;<&sol;p>&NewLine;<p><&excl;-- BREAK 2 --><&sol;p>&NewLine;<p><strong>El contexto<&sol;strong>&period; Hasta ahora&comma; OpenAI había mantenido cerrados todos sus modelos desde <a class&equals;"text-outboundlink" href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;inteligencia-artificial&sol;gpt-2-que-sabemos-que-no-generador-textos-ia-que-openai-dice-haber-censurado-ser-demasiado-peligroso" data-vars-post-title&equals;"GPT-2&colon; qué sabemos y qué no del generador de textos con IA que OpenAI dice haber censurado por ser demasiado peligroso" data-vars-post-url&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;inteligencia-artificial&sol;gpt-2-que-sabemos-que-no-generador-textos-ia-que-openai-dice-haber-censurado-ser-demasiado-peligroso">GPT-2<&sol;a>&comma; justificándolo por motivos de seguridad&period; Pero rivales como Meta con <a class&equals;"text-outboundlink" href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;basics&sol;que-llama-como-funciona-que-sabemos-inteligencia-artificial-meta" data-vars-post-title&equals;"Qué es LLaMA&comma; cómo funciona y qué sabemos de la inteligencia artificial de Meta&NewLine;" data-vars-post-url&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;basics&sol;que-llama-como-funciona-que-sabemos-inteligencia-artificial-meta">Llama<&sol;a> y especialmente las empresas chinas con DeepSeek&comma; <a class&equals;"text-outboundlink" href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;basics&sol;qwen-que-como-usar-inteligencia-artificial-alibaba-gratis-tener-que-pagar-cuotas" data-vars-post-title&equals;"Qwen&colon; qué es y cómo usar la inteligencia artificial de Alibaba gratis sin tener que pagar cuotas" data-vars-post-url&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;basics&sol;qwen-que-como-usar-inteligencia-artificial-alibaba-gratis-tener-que-pagar-cuotas">Qwen<&sol;a> y <a class&equals;"text-outboundlink" href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;deepseek-marco-punto-inflexion-carrera-ia-ahora-otra-empresa-china-quiere-imitar-su-exito-nace-kimi-k2" data-vars-post-title&equals;"DeepSeek marcó un punto de inflexión en la carrera de la IA&period; Ahora otra empresa china quiere imitar su éxito&colon; nace Kimi K2" data-vars-post-url&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;deepseek-marco-punto-inflexion-carrera-ia-ahora-otra-empresa-china-quiere-imitar-su-exito-nace-kimi-k2">Kimi<&sol;a> han ido ganando terreno en el ecosistema abierto&period;<&sol;p>&NewLine;<p><&excl;-- BREAK 3 --><&sol;p>&NewLine;<p>El punto de inflexión llegó cuando DeepSeek R1 demostró que era posible crear modelos de razonamiento avanzados con una fracción del coste de los estadounidenses&period; Sam Altman admitió entonces que OpenAI necesitaba &&num;8220&semi;encontrar una estrategia de código abierto diferente&&num;8221&semi;&period; Y aquí está&period;<&sol;p>&NewLine;<p><&excl;-- BREAK 4 --><&sol;p>&NewLine;<p><strong>En cifras<&sol;strong>&colon;<&sol;p>&NewLine;<ul>&NewLine;<li>El modelo mayor&comma; <a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;huggingface&period;co&sol;openai&sol;gpt-oss-120b">gpt-oss-120b<&sol;a>&comma; funciona en una sola GPU de 80 GB con apenas 5&period;100 millones de parámetros activos de sus 117&period;000 millones totales&period;<&sol;li>&NewLine;<li>Su hermano pequeño&comma; <a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;huggingface&period;co&sol;unsloth&sol;gpt-oss-20b-bnb-4bit">gpt-oss-20b<&sol;a>&comma; puede ejecutarse en un portátil con 16 GB de memoria &lpar;aunque la velocidad parece ser muy lenta con una configuración así&comma; a falta de que lo podamos probar más a fondo&rpar;&period;<&sol;li>&NewLine;<&sol;ul>&NewLine;<div class&equals;"article-asset article-asset-normal article-asset-center">&NewLine;<div class&equals;"desvio-container">&NewLine;<div class&equals;"desvio">&NewLine;<div class&equals;"desvio-figure js-desvio-figure">&NewLine; <a href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;gpt-5-esta-siendo-camino-tortuoso-para-openai-apunta-a-realidad-incomoda-era-ia-volandonos-cabeza-se-acabo" class&equals;"pivot-outboundlink" data-vars-post-title&equals;"La IA está siguiendo los pasos de la industria de los móviles&colon; GPT-5 no será un salto tan grande como otras versiones"><br &sol;>&NewLine; <img alt&equals;"La IA está siguiendo los pasos de la industria de los móviles&colon; GPT-5 no será un salto tan grande como otras versiones" width&equals;"375" height&equals;"142" src&equals;"https&colon;&sol;&sol;i&period;blogs&period;es&sol;7842ac&sol;gpt-5&sol;375&lowbar;142&period;jpeg"><br &sol;>&NewLine; <&sol;a>&NewLine; <&sol;div>&NewLine;<div class&equals;"desvio-summary">&NewLine;<div class&equals;"desvio-taxonomy js-desvio-taxonomy">&NewLine; <a href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;gpt-5-esta-siendo-camino-tortuoso-para-openai-apunta-a-realidad-incomoda-era-ia-volandonos-cabeza-se-acabo" class&equals;"desvio-taxonomy-anchor pivot-outboundlink" data-vars-post-title&equals;"La IA está siguiendo los pasos de la industria de los móviles&colon; GPT-5 no será un salto tan grande como otras versiones">En Xataka<&sol;a>&NewLine; <&sol;div>&NewLine;<p> <a href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;gpt-5-esta-siendo-camino-tortuoso-para-openai-apunta-a-realidad-incomoda-era-ia-volandonos-cabeza-se-acabo" class&equals;"desvio-title js-desvio-title pivot-outboundlink" data-vars-post-title&equals;"La IA está siguiendo los pasos de la industria de los móviles&colon; GPT-5 no será un salto tan grande como otras versiones">La IA está siguiendo los pasos de la industria de los móviles&colon; GPT-5 no será un salto tan grande como otras versiones<&sol;a>&NewLine; <&sol;div>&NewLine;<&sol;p><&sol;div>&NewLine;<&sol;p><&sol;div>&NewLine;<&sol;div>&NewLine;<p><strong>La situación actual<&sol;strong>&period; Los<em> benchmarks<&sol;em> independientes <a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;www&period;linkedin&period;com&sol;pulse&sol;independent-benchmarks-openais-gpt-oss-models-gpt-oss-120b-4ci5c&sol;">sitúan a gpt-oss-120b con una puntuación de 58 en el Índice de Inteligencia<&sol;a>&comma; superando a o3-mini pero quedando por debajo de <a class&equals;"text-outboundlink" href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;openai-acaba-lanzar-o3-o4-mini-sus-modelos-razonadores-fin-hacen-que-ahora-era-imposible-para-ellos" data-vars-post-title&equals;"OpenAI acaba de lanzar O3 y O4-mini&colon; sus modelos razonadores por fin hacen lo que hasta ahora era imposible para ellos" data-vars-post-url&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;openai-acaba-lanzar-o3-o4-mini-sus-modelos-razonadores-fin-hacen-que-ahora-era-imposible-para-ellos">o3 y o4-mini<&sol;a>&period;<&sol;p>&NewLine;<p><&excl;-- BREAK 5 --><&sol;p>&NewLine;<p>En tareas de programación competitiva alcanza 2622 puntos en Codeforces&comma; mientras que DeepSeek R1 logra menos puntuación con un modelo muchísimo más pesado&period;<&sol;p>&NewLine;<p><&excl;-- BREAK 6 --><&sol;p>&NewLine;<p><strong>En detalle<&sol;strong>&period; La arquitectura utiliza un sistema de <a class&equals;"text-outboundlink" href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;openai-acaba-emprender-camino-ambicioso-como-desafiante-entender-como-funciona-caja-negra-ia" data-vars-post-title&equals;"OpenAI acaba de emprender un camino tan ambicioso como desafiante&colon; entender cómo funciona la 'caja negra' de la IA" data-vars-post-url&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;openai-acaba-emprender-camino-ambicioso-como-desafiante-entender-como-funciona-caja-negra-ia">mezcla de expertos<&sol;a> &lpar;MoE&comma; <em>Mixture of Experts<&sol;em>&rpar; que activa solo una fracción de los parámetros totales para cada consulta&period; Esto permite que el modelo de 120&period;000 millones de parámetros active solo el 4&comma;4&percnt; en cada consulta&comma; mientras que el de 20&period;000 millones activa el 17&comma;2&percnt;&period;<&sol;p>&NewLine;<p><&excl;-- BREAK 7 --><&sol;p>&NewLine;<p>Ambos modelos mantienen la capacidad de razonamiento en cadena sin supervisión directa&comma; siguiendo el principio de que el razonamiento visible es necesario para detectar comportamientos indebidos&period;<&sol;p>&NewLine;<p><&excl;-- BREAK 8 --><&sol;p>&NewLine;<p><strong>Sí&comma; pero<&sol;strong>&period; OpenAI no ha hecho públicos los datos de entrenamiento&comma; manteniendo parte del secreto&period; Tampoco incluye capacidades multimodales&comma; limitándose solo a texto&period;<&sol;p>&NewLine;<p><&excl;-- BREAK 9 --><&sol;p>&NewLine;<ul>&NewLine;<li>Las alucinaciones son sensiblemente mayores que en sus modelos propietarios&colon; 49&percnt; y 53&percnt; respectivamente frente al 16&percnt; de <a class&equals;"text-outboundlink" href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;basics&sol;gpt-o1-que-diferencias-como-acceder-al-nuevo-modelo-inteligencia-artificial-chatgpt" data-vars-post-title&equals;"GPT o1&colon; qué es y diferencias&comma; y cómo acceder al nuevo modelo de inteligencia artificial de ChatGPT" data-vars-post-url&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;basics&sol;gpt-o1-que-diferencias-como-acceder-al-nuevo-modelo-inteligencia-artificial-chatgpt">o1<&sol;a>&period;<&sol;li>&NewLine;<&sol;ul>&NewLine;<p><strong>Entre líneas&period;<&sol;strong> Este lanzamiento responde tanto a la presión competitiva china como a la nueva administración Trump&comma; que ha instado a las empresas estadounidenses a liberar más tecnología para &&num;8220&semi;promover la adopción global de IA alineada con valores americanos&&num;8221&semi;&period;<&sol;p>&NewLine;<p><&excl;-- BREAK 10 --><&sol;p>&NewLine;<p>La empresa ha trabajado con socios como Orange&comma; Snowflake y AI Sweden para casos de uso reales&comma; buscando validar si las ventajas justifican seguir invirtiendo en modelos abiertos&period;<&sol;p>&NewLine;<p><&excl;-- BREAK 11 --><&sol;p>&NewLine;<div class&equals;"article-asset-video article-asset-normal">&NewLine;<div class&equals;"asset-content">&NewLine;<div class&equals;"base-asset-video">&NewLine;<div class&equals;"js-dailymotion"><&sol;div>&NewLine;<&sol;p><&sol;div>&NewLine;<&sol;p><&sol;div>&NewLine;<&sol;div>&NewLine;<p><strong>Profundiza&period;<&sol;strong> Los modelos están disponibles bajo licencia Apache 2&period;0 en plataformas como <a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;huggingface&period;co&sol;lmstudio-community&sol;gpt-oss-20b-MLX-8bit">Hugging Face<&sol;a>&comma; con soporte nativo en herramientas como Ollama&comma; LM Studio y servicios <em>cloud<&sol;em> de los principales proveedores&period; <a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;www&period;kaggle&period;com&sol;competitions&sol;openai-gpt-oss-20b-red-teaming&sol;">OpenAI ha organizado un Red Teaming Challenge<&sol;a> con 500&period;000 dólares en premios para identificar riesgos de seguridad&period;<&sol;p>&NewLine;<p><&excl;-- BREAK 12 --><&sol;p>&NewLine;<p>Esta es la respuesta de OpenAI a su momento DeepSeek&colon; reconocer que la innovación abierta no solo es inevitable&comma; sino necesaria para mantenerse competitivo en un panorama donde el coste y la accesibilidad importan tanto como el rendimiento&period;<&sol;p>&NewLine;<p><&excl;-- BREAK 13 --><&sol;p>&NewLine;<p>En Xataka &vert; <a class&equals;"text-outboundlink" href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;gpt-5-marcara-antes-despues-que-se-espera-nuevo-modelo-su-impacto-industria-tecnologica" data-vars-post-title&equals;"La paradoja de GPT-5&colon; OpenAI necesita el salto más grande de la historia de la IA justo cuando más imposible parece" data-vars-post-url&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;gpt-5-marcara-antes-despues-que-se-espera-nuevo-modelo-su-impacto-industria-tecnologica">La paradoja de GPT-5&colon; OpenAI necesita el salto más grande de la historia de la IA justo cuando más imposible parece<&sol;a><&sol;p>&NewLine;<p>Imagen destacada &vert; <a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;unsplash&period;com&sol;es&sol;&commat;solenfeyissa&quest;utm&lowbar;content&equals;creditCopyText&amp&semi;utm&lowbar;medium&equals;referral&amp&semi;utm&lowbar;source&equals;unsplash">Solen Feyissa<&sol;a>&comma; b<a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;unsplash&period;com&sol;es&sol;&commat;solomin&quest;utm&lowbar;content&equals;creditCopyText&amp&semi;utm&lowbar;medium&equals;referral&amp&semi;utm&lowbar;source&equals;unsplash">Dima Solomin<&sol;a><&sol;p>&NewLine;<p> &&num;8211&semi; <br &sol;> La noticia<br &sol;>&NewLine; <a href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;openai-acaba-tener-su-momento-deepseek-su-modelo-no-solo-potente-gratuito-sino-que-ha-costado-mucho&quest;utm&lowbar;source&equals;feedburner&amp&semi;utm&lowbar;medium&equals;feed&amp&semi;utm&lowbar;campaign&equals;06&lowbar;Aug&lowbar;2025"><br &sol;>&NewLine; <em> OpenAI acaba de tener su momento DeepSeek&colon; su modelo no solo es potente y gratuito&comma; sino que ha costado mucho menos <&sol;em><br &sol;>&NewLine; <&sol;a><br &sol;>&NewLine; fue publicada originalmente en<br &sol;>&NewLine; <a href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;&quest;utm&lowbar;source&equals;feedburner&amp&semi;utm&lowbar;medium&equals;feed&amp&semi;utm&lowbar;campaign&equals;06&lowbar;Aug&lowbar;2025"><br &sol;>&NewLine; <strong> Xataka <&sol;strong><br &sol;>&NewLine; <&sol;a><br &sol;>&NewLine; por <a href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;autor&sol;javier-lacort&quest;utm&lowbar;source&equals;feedburner&amp&semi;utm&lowbar;medium&equals;feed&amp&semi;utm&lowbar;campaign&equals;06&lowbar;Aug&lowbar;2025"><br &sol;>&NewLine; Javier Lacort<br &sol;>&NewLine; <&sol;a><br &sol;>&NewLine; &period; <&sol;p>&NewLine;<p>&ZeroWidthSpace;OpenAI lanzó ayer sus primeros modelos con pesos abiertos desde 2019&colon; gpt-oss-120b y gpt-oss-20b&period; Dos sistemas de razonamiento que marcan un cambio radical en la estrategia de la empresa tras el éxito de DeepSeek R1 a principios de año&period;<&sol;p>&NewLine;<p>Por qué es importante&period; OpenAI ha pasado de defender la seguridad de los modelos cerrados a reconocer que &&num;8220&semi;estaba en el lado equivocado de la historia&&num;8221&semi; con los modelos abiertos&period; El terremoto que provocó DeepSeek en enero les obligó a repensar toda su estrategia&period;<&sol;p>&NewLine;<p>El contexto&period; Hasta ahora&comma; OpenAI había mantenido cerrados todos sus modelos desde GPT-2&comma; justificándolo por motivos de seguridad&period; Pero rivales como Meta con Llama y especialmente las empresas chinas con DeepSeek&comma; Qwen y Kimi han ido ganando terreno en el ecosistema abierto&period;<&sol;p>&NewLine;<p>El punto de inflexión llegó cuando DeepSeek R1 demostró que era posible crear modelos de razonamiento avanzados con una fracción del coste de los estadounidenses&period; Sam Altman admitió entonces que OpenAI necesitaba &&num;8220&semi;encontrar una estrategia de código abierto diferente&&num;8221&semi;&period; Y aquí está&period;<&sol;p>&NewLine;<p>En cifras&colon;<&sol;p>&NewLine;<p> El modelo mayor&comma; gpt-oss-120b&comma; funciona en una sola GPU de 80 GB con apenas 5&period;100 millones de parámetros activos de sus 117&period;000 millones totales&period;<br &sol;>&NewLine; Su hermano pequeño&comma; gpt-oss-20b&comma; puede ejecutarse en un portátil con 16 GB de memoria &lpar;aunque la velocidad parece ser muy lenta con una configuración así&comma; a falta de que lo podamos probar más a fondo&rpar;&period;<&sol;p>&NewLine;<p> En Xataka<&sol;p>&NewLine;<p> La IA está siguiendo los pasos de la industria de los móviles&colon; GPT-5 no será un salto tan grande como otras versiones<&sol;p>&NewLine;<p>La situación actual&period; Los benchmarks independientes sitúan a gpt-oss-120b con una puntuación de 58 en el Índice de Inteligencia&comma; superando a o3-mini pero quedando por debajo de o3 y o4-mini&period;<&sol;p>&NewLine;<p>En tareas de programación competitiva alcanza 2622 puntos en Codeforces&comma; mientras que DeepSeek R1 logra menos puntuación con un modelo muchísimo más pesado&period;<&sol;p>&NewLine;<p>En detalle&period; La arquitectura utiliza un sistema de mezcla de expertos &lpar;MoE&comma; Mixture of Experts&rpar; que activa solo una fracción de los parámetros totales para cada consulta&period; Esto permite que el modelo de 120&period;000 millones de parámetros active solo el 4&comma;4&percnt; en cada consulta&comma; mientras que el de 20&period;000 millones activa el 17&comma;2&percnt;&period;<&sol;p>&NewLine;<p>Ambos modelos mantienen la capacidad de razonamiento en cadena sin supervisión directa&comma; siguiendo el principio de que el razonamiento visible es necesario para detectar comportamientos indebidos&period;<&sol;p>&NewLine;<p>Sí&comma; pero&period; OpenAI no ha hecho públicos los datos de entrenamiento&comma; manteniendo parte del secreto&period; Tampoco incluye capacidades multimodales&comma; limitándose solo a texto&period;<&sol;p>&NewLine;<p> Las alucinaciones son sensiblemente mayores que en sus modelos propietarios&colon; 49&percnt; y 53&percnt; respectivamente frente al 16&percnt; de o1&period;<&sol;p>&NewLine;<p>Entre líneas&period; Este lanzamiento responde tanto a la presión competitiva china como a la nueva administración Trump&comma; que ha instado a las empresas estadounidenses a liberar más tecnología para &&num;8220&semi;promover la adopción global de IA alineada con valores americanos&&num;8221&semi;&period;<&sol;p>&NewLine;<p>La empresa ha trabajado con socios como Orange&comma; Snowflake y AI Sweden para casos de uso reales&comma; buscando validar si las ventajas justifican seguir invirtiendo en modelos abiertos&period;<&sol;p>&NewLine;<p>Profundiza&period; Los modelos están disponibles bajo licencia Apache 2&period;0 en plataformas como Hugging Face&comma; con soporte nativo en herramientas como Ollama&comma; LM Studio y servicios cloud de los principales proveedores&period; OpenAI ha organizado un Red Teaming Challenge con 500&period;000 dólares en premios para identificar riesgos de seguridad&period;<&sol;p>&NewLine;<p>Esta es la respuesta de OpenAI a su momento DeepSeek&colon; reconocer que la innovación abierta no solo es inevitable&comma; sino necesaria para mantenerse competitivo en un panorama donde el coste y la accesibilidad importan tanto como el rendimiento&period;<&sol;p>&NewLine;<p>En Xataka &vert; La paradoja de GPT-5&colon; OpenAI necesita el salto más grande de la historia de la IA justo cuando más imposible parece<&sol;p>&NewLine;<p>Imagen destacada &vert; Solen Feyissa&comma; bDima Solomin<&sol;p>&NewLine;<p> &&num;8211&semi; La noticia<&sol;p>&NewLine;<p> OpenAI acaba de tener su momento DeepSeek&colon; su modelo no solo es potente y gratuito&comma; sino que ha costado mucho menos <&sol;p>&NewLine;<p> fue publicada originalmente en<&sol;p>&NewLine;<p> Xataka <&sol;p>&NewLine;<p> por<br &sol;>&NewLine; Javier Lacort<&sol;p>&NewLine;<p> &period;   <&sol;p>&NewLine;<p>&ZeroWidthSpace;   <&sol;p>&NewLine;<p>&ZeroWidthSpace; <&sol;p>&NewLine;

Leave a Reply

Your email address will not be published. Required fields are marked *

Noticias Importantes

Copyright © 2017 ERM DIGITAL. powered by ERM.