Ciencia y Tecnología

DeepSeek acaba de lanzar un modelo que compite con Opus 4.6. Cuesta siete veces menos y funciona en chips chinos

Published

on

<p>&NewLine; <img src&equals;"https&colon;&sol;&sol;i&period;blogs&period;es&sol;6e97ea&sol;deepseek&sol;1024&lowbar;2000&period;jpeg" alt&equals;"DeepSeek acaba de lanzar un modelo que compite con Opus 4&period;6&period; Cuesta siete veces menos y funciona en chips chinos ">&NewLine; <&sol;p>&NewLine;<p>Han pasado <a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;x&period;com&sol;victor207755822&sol;status&sol;2047518146689732858">484 días<&sol;a> desde aquel "<a class&equals;"text-outboundlink" href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;deepseek-r1-no-es-solo-otro-modelo-de-ia-es-la-mayor-amenaza-existencial-que-ha-enfrentado-silicon-valley" data-vars-post-title&equals;" DeepSeek R1 no es solo otro modelo de IA&colon; es la mayor amenaza existencial que ha enfrentado Silicon Valley" data-vars-post-url&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;deepseek-r1-no-es-solo-otro-modelo-de-ia-es-la-mayor-amenaza-existencial-que-ha-enfrentado-silicon-valley">momento DeepSeek<&sol;a>"&comma; pero <a class&equals;"text-outboundlink" href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;deepseek-ha-lanzado-su-nuevo-modelo-razonador-gratis-supera-a-gpt-5" data-vars-post-title&equals;"El nuevo modelo de DeepSeek razona&comma; es gratis&period;&period;&period; y supera a GPT-5" data-vars-post-url&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;deepseek-ha-lanzado-su-nuevo-modelo-razonador-gratis-supera-a-gpt-5">la espera<&sol;a> parece haber valido la pena&comma; porque tenemos con nosotros el nuevo DeepSeek V4&period; Estamos ante un modelo de pesos abiertos absolutamente gigantesco y que de nuevo promete resquebrajar los cimientos de los modelos fundacionales propietarios de Anthropic&comma; OpenAI o Google&period; Esto se mueve&comma; señores&period;<&sol;p>&NewLine;<p><&excl;-- BREAK 1 --><&sol;p>&NewLine;<p><strong>Gigantesco y abierto<&sol;strong>&period; DeepSeek v4 es un modelo de pesos abiertos &lpar;"Open Source"&rpar; y viene en dos versiones&period; La primera es la Pro&comma; con 1&comma;6 billones de parámentros &lpar;1&period;6T&rpar;&comma; de los cuales tiene 49&period;000 millones activos&period; La  segunda es la Flash&comma; con 248&period;000 millones de parámetros &lpar;248B&comma; enorme para un modelo "Flash"&rpar; de los cuales 13&period;000 están activos&period; <&sol;p>&NewLine;<div class&equals;"article-asset article-asset-normal article-asset-center">&NewLine;<div class&equals;"desvio-container">&NewLine;<div class&equals;"desvio">&NewLine;<div class&equals;"desvio-figure js-desvio-figure">&NewLine; <a href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;basics&sol;guia-deepseek-36-funciones-cosas-que-puedes-hacer-gratis-esta-inteligencia-artificial" class&equals;"pivot-outboundlink" data-vars-post-title&equals;"Guía DeepSeek&colon; 36 funciones y cosas que puedes hacer gratis con esta inteligencia artificial"><br &sol;>&NewLine; <img alt&equals;"Guía DeepSeek&colon; 36 funciones y cosas que puedes hacer gratis con esta inteligencia artificial" width&equals;"375" height&equals;"142" src&equals;"https&colon;&sol;&sol;i&period;blogs&period;es&sol;8f8c3e&sol;deepseek&sol;375&lowbar;142&period;jpeg"><br &sol;>&NewLine; <&sol;a>&NewLine; <&sol;div>&NewLine;<div class&equals;"desvio-summary">&NewLine;<div class&equals;"desvio-taxonomy js-desvio-taxonomy">&NewLine; <a href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;basics&sol;guia-deepseek-36-funciones-cosas-que-puedes-hacer-gratis-esta-inteligencia-artificial" class&equals;"desvio-taxonomy-anchor pivot-outboundlink" data-vars-post-title&equals;"Guía DeepSeek&colon; 36 funciones y cosas que puedes hacer gratis con esta inteligencia artificial">En Xataka<&sol;a>&NewLine; <&sol;div>&NewLine;<p> <a href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;basics&sol;guia-deepseek-36-funciones-cosas-que-puedes-hacer-gratis-esta-inteligencia-artificial" class&equals;"desvio-title js-desvio-title pivot-outboundlink" data-vars-post-title&equals;"Guía DeepSeek&colon; 36 funciones y cosas que puedes hacer gratis con esta inteligencia artificial">Guía DeepSeek&colon; 36 funciones y cosas que puedes hacer gratis con esta inteligencia artificial<&sol;a>&NewLine; <&sol;div>&NewLine;<&sol;p><&sol;div>&NewLine;<&sol;p><&sol;div>&NewLine;<&sol;div>&NewLine;<p><strong>Más eficiente que nunca<&sol;strong>&period; Ambas versiones <a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;huggingface&period;co&sol;deepseek-ai&sol;DeepSeek-V4-Pro">hacen uso<&sol;a> de una arquitectura Mixture-of-Experts &lpar;MoE&rpar;&comma; lo que significa que solo una fracción de los parámetros se activa en cada inferencia&period; Eso permite reducir el coste computacional de forma notable&period; Ambas versiones soportan una ventan de contexto de un millón de tokens —para meter novelas y novelas de golpe como entrada— cuando en v3 era de 128&period;000 tokens&period; Además este modelo es mucho más eficiente que su predecesor en cómputo por token&colon; requiere tan solo el 27&percnt; de las operaciones por token  y el 10&percnt; de la caché KV con respecto a DeepSeek v3&period;2&period;  <&sol;p>&NewLine;<p><&excl;-- BREAK 2 --><&sol;p>&NewLine;<p><strong>Los benchmarks prometen<&sol;strong>&period; Las pruebas internas de DeepSeek revelan que v4 Pro-Max &lpar;el mejor modelo con la mayor capacidad de razonamiento&rpar; supera o está al nivel de Claude Opus 4&period;6 Max&comma; GPT-5&period;4 xHigh&comma; Gemini 3&period;1 Pro High&comma; Kimi K2&period;6 y GLM 5&period;1&period; Los resultados&comma; eso sí&comma; no están verificados de forma independiente&comma; lo que hace que debamos tomarlos con cautela&period; <&sol;p>&NewLine;<p><&excl;-- BREAK 3 --><&sol;p>&NewLine;<div class&equals;"article-asset-image article-asset-normal article-asset-center">&NewLine;<div class&equals;"asset-content">&NewLine;<p> <img alt&equals;"Captura De Pantalla 2026 04 24 A Las 9 44 13" class&equals;"centro&lowbar;sinmarco" src&equals;"https&colon;&sol;&sol;i&period;blogs&period;es&sol;b01a51&sol;captura-de-pantalla-2026-04-24-a-las-9&period;44&period;13&sol;450&lowbar;1000&period;jpeg"><&sol;p><&sol;div>&NewLine;<&sol;div>&NewLine;<p>Los números aun así son llamativos&colon; en LiveCodeBench&comma; una prueba de programación&comma; DeepSeek v4-Pro-Max alcanza el 93&comma;5&percnt; de puntuación frente al 88&comma;8 de Opus 4&period;6 y el 91&comma;7&percnt; de Gemini 3&period;1 Pro&period; En otras pruebas hay más variabilidad&comma; pero al menos sobre el papel DeepSeek v4 Pro parece tan bueno como Opus 4&period;7&comma; que hasta ahora era referente absoluto&period;<&sol;p>&NewLine;<p><&excl;-- BREAK 4 --><&sol;p>&NewLine;<div class&equals;"article-asset-image article-asset-small article-asset-center">&NewLine;<div class&equals;"asset-content">&NewLine;<p> <img alt&equals;"Captura De Pantalla 2026 04 24 A Las 9 46 45" class&equals;"centro&lowbar;sinmarco" src&equals;"https&colon;&sol;&sol;i&period;blogs&period;es&sol;97b1cb&sol;captura-de-pantalla-2026-04-24-a-las-9&period;46&period;45&sol;450&lowbar;1000&period;jpeg"><&sol;p><&sol;div>&NewLine;<&sol;div>&NewLine;<p><strong>Mucho más barato<&sol;strong>&period; Pero es que como ya pasó con su versión anterior&comma; la diferencia en precio con esos modelos de empresas de EEUU es asombrosa&period; Como <a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;simonwillison&period;net&sol;2026&sol;Apr&sol;24&sol;deepseek-v4&sol;">apunta<&sol;a> el analista Simon Willinson&comma; los <a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;api-docs&period;deepseek&period;com&sol;quick&lowbar;start&sol;pricing">precios oficiales<&sol;a> de DeepSeek v4 Pro son de 1&comma;74 dólares por millon de tokens de entrada y de 3&comma;48 dólares por millón de tokens de salida&comma; hasta casi siete veces menos que los de Opus 4&period;7 y haata casi 9 veces menos que los del nuevo GPT-5&period;5&period; Con DeepSeek v4 Flash el coste es de 0&comma;14&sol;0&comma;28 dólares por millón de tokens de entrada&sol;salida&comma; cuando GPT-5&period;4 Mini cuesta hasta 16 veces más&period; La conclusión es evidente&colon; si realmente cumple como dice cumplir&comma; el precio es un absoluto chollo&period; Ese es precisamente el reto&colon; que la experiencia real confirme lo que dicen los benchmarks&period;<&sol;p>&NewLine;<p><&excl;-- BREAK 5 --><&sol;p>&NewLine;<p><strong>El misterio del hardware<&sol;strong>&period; En DeepSeek no han revelado qué hardware se ha usado para entrenar esta versión de su modelo fundacional&period; En el pasado sí admitieron que habían usado las H800 de NVIDIA&period; Lo que <a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;www&period;reuters&period;com&sol;technology&sol;chinas-deepseek-returns-with-new-model-year-after-viral-rise-2026-04-24&sol;">sí se sabe<&sol;a> es que el modelo se ha desarrollado para poder correr tanto en los chips de NVIDIA como en los Ascend de Huawei&period; Esta última <a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;www&period;reuters&period;com&sol;business&sol;media-telecom&sol;huawei-ascend-supernode-support-deepseek-v4-2026-04-24&sol;">ha confirmado<&sol;a> en Baidu que sus clusters Ascend Supernode basados en los Ascend 950 soportarán por completo las versiones de DeepSeek v4&period; <&sol;p>&NewLine;<p><strong>El soporte de Huawei es una noticia "horrible" para EEUU<&sol;strong>&period; En The Information <a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;www&period;theinformation&period;com&sol;articles&sol;deepseeks-new-ai-model-will-victory-huawei">ya comentaron<&sol;a> que una de las razones del "retraso" en la aparición de este modelo fue adaptarlo para que funcionara sin problemas con los chips de Huawei&period; Ese soporte es <a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;www&period;scmp&period;com&sol;tech&sol;article&sol;3350460&sol;nvidias-jensen-huang-warns-huawei-chips-deepseek-ai-models-would-be-horrible-us">según Jensen Huang<&sol;a> una noticia "horrible" para EEUU&comma; porque supone que la dependencia de chips NVIDIA ya no existe o al menos se reduce a la mínima expresión&period;<&sol;p>&NewLine;<p><&excl;-- BREAK 6 --><&sol;p>&NewLine;<p><strong>Pero<&sol;strong>&period; El lanzamiento llega en un momento complicado para la empresa&period; Guo Daya&comma; uno de los máximos responsables de los modelos v1 y v3&comma; ha fichado por ByteDance para trabajar en agentes de IA&period; Luo Fuli&comma; que lideró el desarrolló de la v2&comma; se unió a Xiaomi el año pasado&period; Este lanzamiento coincide además con la búsqueda de financiación externa por primera vez en DeepSeek&period; Se espera que levanten unos 300 millones de dólares y obtengan una valoración de unos 20&period;000 millones <a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;www&period;wsj&period;com&sol;tech&sol;ai&sol;chinas-deepseek-launches-long-awaited-ai-model-066a7d6e">según The Wall Street Journal<&sol;a>&period;<&sol;p>&NewLine;<p><strong>Del efecto sorpresa al efecto continuidad<&sol;strong>&period; El lanzamiento de DeepSeek R1 en enero de 2025 fue sorprendente porque demostró que China podía entrenar modelos competitivos a una fracción del coste de los modelos occidentales&period; Con DeepSeek v4 ese efecto sorpresa desaparece para dar paso al efecto continuidad&period; Este modelo parece mantener precisamente lo que hizo famoso al modelo previo&colon; potencia extraordinaria a un coste bajísimo&period;<&sol;p>&NewLine;<p><&excl;-- BREAK 7 --><&sol;p>&NewLine;<div class&equals;"article-asset-video article-asset-normal">&NewLine;<div class&equals;"asset-content">&NewLine;<div class&equals;"base-asset-video">&NewLine;<div class&equals;"js-dailymotion"><&sol;div>&NewLine;<&sol;p><&sol;div>&NewLine;<&sol;p><&sol;div>&NewLine;<&sol;div>&NewLine;<p><strong>Malas noticias para Anthropic<&sol;strong>&period; Esos precios tan bajos son una noticia terrible para Anthropic&comma; que en las últimas semanas se ha visto obligada a ejecutar <a class&equals;"text-outboundlink" href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;anthropic-no-ha-subido-precio-claude-ha-inventado-algo-mejor-inflacion-tokens" data-vars-post-title&equals;"Anthropic no ha subido el precio de Claude&period; Ha inventado algo mejor&colon; la inflación de tokens" data-vars-post-url&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;anthropic-no-ha-subido-precio-claude-ha-inventado-algo-mejor-inflacion-tokens">una especie de "reduflación" de sus nuevos modelos<&sol;a>&comma; que no son más caros pero que consumen muchos más tokens&period; Habrá que comprobar si DeepSeek v4 Pro es tan bueno como promete la compañía&comma; pero si lo es tedremos ante nosotros otro "momento DeepSeek"&period; Quizá no tan notable como el del año pasado&comma; pero igualmente relevante&period;<&sol;p>&NewLine;<p><&excl;-- BREAK 8 --><&sol;p>&NewLine;<p>En Xataka &vert; <a class&equals;"text-outboundlink" href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;aplicaciones&sol;deepseek-se-prometia-felices-como-gran-ia-china-no-contaba-pequeno-detalle-kimi" data-vars-post-title&equals;"DeepSeek se las prometía felices como la gran IA china&period; No contaba con un pequeño detalle&colon; Kimi " data-vars-post-url&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;aplicaciones&sol;deepseek-se-prometia-felices-como-gran-ia-china-no-contaba-pequeno-detalle-kimi">DeepSeek se las prometía felices como la gran IA china&period; No contaba con un pequeño detalle&colon; Kimi<&sol;a><&sol;p>&NewLine;<p> &&num;8211&semi; <br &sol;> La noticia<br &sol;>&NewLine; <a href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;deepseek-acaba-lanzar-modelo-que-compite-opus-4-6-cuesta-siete-veces-funciona-chips-chinos&quest;utm&lowbar;source&equals;feedburner&amp&semi;utm&lowbar;medium&equals;feed&amp&semi;utm&lowbar;campaign&equals;24&lowbar;Apr&lowbar;2026"><br &sol;>&NewLine; <em> DeepSeek acaba de lanzar un modelo que compite con Opus 4&period;6&period; Cuesta siete veces menos y funciona en chips chinos <&sol;em><br &sol;>&NewLine; <&sol;a><br &sol;>&NewLine; fue publicada originalmente en<br &sol;>&NewLine; <a href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;&quest;utm&lowbar;source&equals;feedburner&amp&semi;utm&lowbar;medium&equals;feed&amp&semi;utm&lowbar;campaign&equals;24&lowbar;Apr&lowbar;2026"><br &sol;>&NewLine; <strong> Xataka <&sol;strong><br &sol;>&NewLine; <&sol;a><br &sol;>&NewLine; por<br &sol;>&NewLine; <a href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;autor&sol;javier-pastor&quest;utm&lowbar;source&equals;feedburner&amp&semi;utm&lowbar;medium&equals;feed&amp&semi;utm&lowbar;campaign&equals;24&lowbar;Apr&lowbar;2026"><br &sol;>&NewLine; Javier Pastor<br &sol;>&NewLine; <&sol;a><br &sol;>&NewLine; &period; <&sol;p>&NewLine;<p> Han pasado 484 días desde aquel "momento DeepSeek"&comma; pero la espera parece haber valido la pena&comma; porque tenemos con nosotros el nuevo DeepSeek V4&period; Estamos ante un modelo de pesos abiertos absolutamente gigantesco y que de nuevo promete resquebrajar los cimientos de los modelos fundacionales propietarios de Anthropic&comma; OpenAI o Google&period; Esto se mueve&comma; señores&period;<br &sol;>&NewLine;Gigantesco y abierto&period; DeepSeek v4 es un modelo de pesos abiertos &lpar;"Open Source"&rpar; y viene en dos versiones&period; La primera es la Pro&comma; con 1&comma;6 billones de parámentros &lpar;1&period;6T&rpar;&comma; de los cuales tiene 49&period;000 millones activos&period; La  segunda es la Flash&comma; con 248&period;000 millones de parámetros &lpar;248B&comma; enorme para un modelo "Flash"&rpar; de los cuales 13&period;000 están activos&period; <&sol;p>&NewLine;<p> En Xataka<&sol;p>&NewLine;<p> Guía DeepSeek&colon; 36 funciones y cosas que puedes hacer gratis con esta inteligencia artificial<&sol;p>&NewLine;<p>Más eficiente que nunca&period; Ambas versiones hacen uso de una arquitectura Mixture-of-Experts &lpar;MoE&rpar;&comma; lo que significa que solo una fracción de los parámetros se activa en cada inferencia&period; Eso permite reducir el coste computacional de forma notable&period; Ambas versiones soportan una ventan de contexto de un millón de tokens —para meter novelas y novelas de golpe como entrada— cuando en v3 era de 128&period;000 tokens&period; Además este modelo es mucho más eficiente que su predecesor en cómputo por token&colon; requiere tan solo el 27&percnt; de las operaciones por token  y el 10&percnt; de la caché KV con respecto a DeepSeek v3&period;2&period;  <&sol;p>&NewLine;<p>Los benchmarks prometen&period; Las pruebas internas de DeepSeek revelan que v4 Pro-Max &lpar;el mejor modelo con la mayor capacidad de razonamiento&rpar; supera o está al nivel de Claude Opus 4&period;6 Max&comma; GPT-5&period;4 xHigh&comma; Gemini 3&period;1 Pro High&comma; Kimi K2&period;6 y GLM 5&period;1&period; Los resultados&comma; eso sí&comma; no están verificados de forma independiente&comma; lo que hace que debamos tomarlos con cautela&period; <&sol;p>&NewLine;<p>Los números aun así son llamativos&colon; en LiveCodeBench&comma; una prueba de programación&comma; DeepSeek v4-Pro-Max alcanza el 93&comma;5&percnt; de puntuación frente al 88&comma;8 de Opus 4&period;6 y el 91&comma;7&percnt; de Gemini 3&period;1 Pro&period; En otras pruebas hay más variabilidad&comma; pero al menos sobre el papel DeepSeek v4 Pro parece tan bueno como Opus 4&period;7&comma; que hasta ahora era referente absoluto&period;<&sol;p>&NewLine;<p>Mucho más barato&period; Pero es que como ya pasó con su versión anterior&comma; la diferencia en precio con esos modelos de empresas de EEUU es asombrosa&period; Como apunta el analista Simon Willinson&comma; los precios oficiales de DeepSeek v4 Pro son de 1&comma;74 dólares por millon de tokens de entrada y de 3&comma;48 dólares por millón de tokens de salida&comma; hasta casi siete veces menos que los de Opus 4&period;7 y haata casi 9 veces menos que los del nuevo GPT-5&period;5&period; Con DeepSeek v4 Flash el coste es de 0&comma;14&sol;0&comma;28 dólares por millón de tokens de entrada&sol;salida&comma; cuando GPT-5&period;4 Mini cuesta hasta 16 veces más&period; La conclusión es evidente&colon; si realmente cumple como dice cumplir&comma; el precio es un absoluto chollo&period; Ese es precisamente el reto&colon; que la experiencia real confirme lo que dicen los benchmarks&period;<br &sol;>&NewLine;El misterio del hardware&period; En DeepSeek no han revelado qué hardware se ha usado para entrenar esta versión de su modelo fundacional&period; En el pasado sí admitieron que habían usado las H800 de NVIDIA&period; Lo que sí se sabe es que el modelo se ha desarrollado para poder correr tanto en los chips de NVIDIA como en los Ascend de Huawei&period; Esta última ha confirmado en Baidu que sus clusters Ascend Supernode basados en los Ascend 950 soportarán por completo las versiones de DeepSeek v4&period; <br &sol;>&NewLine;El soporte de Huawei es una noticia "horrible" para EEUU&period; En The Information ya comentaron que una de las razones del "retraso" en la aparición de este modelo fue adaptarlo para que funcionara sin problemas con los chips de Huawei&period; Ese soporte es según Jensen Huang una noticia "horrible" para EEUU&comma; porque supone que la dependencia de chips NVIDIA ya no existe o al menos se reduce a la mínima expresión&period;<br &sol;>&NewLine;Pero&period; El lanzamiento llega en un momento complicado para la empresa&period; Guo Daya&comma; uno de los máximos responsables de los modelos v1 y v3&comma; ha fichado por ByteDance para trabajar en agentes de IA&period; Luo Fuli&comma; que lideró el desarrolló de la v2&comma; se unió a Xiaomi el año pasado&period; Este lanzamiento coincide además con la búsqueda de financiación externa por primera vez en DeepSeek&period; Se espera que levanten unos 300 millones de dólares y obtengan una valoración de unos 20&period;000 millones según The Wall Street Journal&period;<br &sol;>&NewLine;Del efecto sorpresa al efecto continuidad&period; El lanzamiento de DeepSeek R1 en enero de 2025 fue sorprendente porque demostró que China podía entrenar modelos competitivos a una fracción del coste de los modelos occidentales&period; Con DeepSeek v4 ese efecto sorpresa desaparece para dar paso al efecto continuidad&period; Este modelo parece mantener precisamente lo que hizo famoso al modelo previo&colon; potencia extraordinaria a un coste bajísimo&period;<&sol;p>&NewLine;<p>Malas noticias para Anthropic&period; Esos precios tan bajos son una noticia terrible para Anthropic&comma; que en las últimas semanas se ha visto obligada a ejecutar una especie de "reduflación" de sus nuevos modelos&comma; que no son más caros pero que consumen muchos más tokens&period; Habrá que comprobar si DeepSeek v4 Pro es tan bueno como promete la compañía&comma; pero si lo es tedremos ante nosotros otro "momento DeepSeek"&period; Quizá no tan notable como el del año pasado&comma; pero igualmente relevante&period;<&sol;p>&NewLine;<p>En Xataka &vert; DeepSeek se las prometía felices como la gran IA china&period; No contaba con un pequeño detalle&colon; Kimi<&sol;p>&NewLine;<p> &&num;8211&semi; La noticia<&sol;p>&NewLine;<p> DeepSeek acaba de lanzar un modelo que compite con Opus 4&period;6&period; Cuesta siete veces menos y funciona en chips chinos <&sol;p>&NewLine;<p> fue publicada originalmente en<&sol;p>&NewLine;<p> Xataka <&sol;p>&NewLine;<p> por <&sol;p>&NewLine;<p> Javier Pastor<&sol;p>&NewLine;<p> &period;   <&sol;p>&NewLine;

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Trending

Copyright 2025 ERM Digital. Todos los derechos reservados.