Ciencia y Tecnología

China ya no se conforma con alejarse de NVIDIA. Su siguiente paso es el corazón de la IA con un sistema que rompe moldes

Published

on

<p>&NewLine; <img src&equals;"https&colon;&sol;&sol;i&period;blogs&period;es&sol;2c6926&sol;ia-china-portada&sol;1024&lowbar;2000&period;jpeg" alt&equals;"China ya no se conforma con alejarse de NVIDIA&period; Su siguiente paso es el corazón de la IA con un sistema que rompe moldes ">&NewLine; <&sol;p>&NewLine;<&sol;p>&NewLine;<p>En 2017&comma; el paper &OpenCurlyDoubleQuote;<a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;arxiv&period;org&sol;abs&sol;1706&period;03762">Attention Is All You Need<&sol;a>” de Google cambió la base técnica de la generación de lenguaje&colon; los <a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;aws&period;amazon&period;com&sol;what-is&sol;transformers-in-artificial-intelligence&sol;">Transformers<&sol;a> permitieron procesar secuencias largas en paralelo y escalar modelos hasta tamaños que antes eran inviables&period; Esa ruta de escalado ha impulsado a arquitecturas como <a class&equals;"text-outboundlink" href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;inteligencia-artificial&sol;gpt-2-que-sabemos-que-no-generador-textos-ia-que-openai-dice-haber-censurado-ser-demasiado-peligroso" data-vars-post-title&equals;"GPT-2&colon; qué sabemos y qué no del generador de textos con IA que OpenAI dice haber censurado por ser demasiado peligroso" data-vars-post-url&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;inteligencia-artificial&sol;gpt-2-que-sabemos-que-no-generador-textos-ia-que-openai-dice-haber-censurado-ser-demasiado-peligroso">GPT<&sol;a> y <a class&equals;"text-outboundlink" href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;servicios&sol;como-funciona-bert-inteligencia-artificial-que-google-quiere-conseguir-que-su-motor-busqueda-nos-entienda-mejor" data-vars-post-title&equals;"Cómo funciona BERT&comma; la inteligencia artificial con la que Google quiere conseguir que su motor de búsqueda nos entienda mejor" data-vars-post-url&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;servicios&sol;como-funciona-bert-inteligencia-artificial-que-google-quiere-conseguir-que-su-motor-busqueda-nos-entienda-mejor">BERT<&sol;a> y ha convertido la autoatención en <strong>la pieza central de la IA generativa<&sol;strong> contemporánea&period; <&sol;p>&NewLine;<p>Pero este novedoso enfoque llegó acompañado de costes crecientes en memoria y energía cuando el contexto se alarga&comma; una limitación que ha motivado investigaciones para desarrollar alternativas&period; SpikingBrain-1&period;0 apunta a romper moldes&period;<&sol;p>&NewLine;<h2>Del &OpenCurlyDoubleQuote;Attention Is All You Need” al cerebro&colon; la nueva apuesta para romper límites en IA<&sol;h2>&NewLine;<p>Un equipo del Instituto de Automatización de la Academia China de Ciencias <a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;arxiv&period;org&sol;pdf&sol;2509&period;05276">acaba de presentar SpikingBrain-1&period;0<&sol;a>&period; Estamos hablando de una familia de modelos espigados orientada a reducir datos y cómputo necesarios para tareas con contextos muy largos&period; Los expertos proponen dos enfoques&colon; SpikingBrain-7B&comma; de arquitectura lineal enfocada a eficiencia&comma; y SpikingBrain-76B&comma; que combina atención lineal con mecanismos Mixture of Experts &lpar;MoE&rpar; de mayor capacidad&period;<&sol;p>&NewLine;<p><&excl;-- BREAK 1 --><&sol;p>&NewLine;<div class&equals;"article-asset-video article-asset-normal">&NewLine;<div class&equals;"asset-content">&NewLine;<div class&equals;"base-asset-video">&NewLine;<div class&equals;"js-dailymotion"><&sol;div>&NewLine;<&sol;p><&sol;div>&NewLine;<&sol;p><&sol;div>&NewLine;<&sol;div>&NewLine;<p>Los autores detallan que gran parte del desarrollo y las pruebas se llevaron a cabo en clústeres de GPU MetaX C550&comma; con bibliotecas y operadores diseñados específicamente para esa plataforma&period; Esto convierte el proyecto no solo en un avance prometedor a nivel de software&comma; sino también en una demostración de <strong>capacidades de hardware propio<&sol;strong>&period; Un aspecto especialmente relevante si se tiene en cuenta el esfuerzo de China por reducir su dependencia de NVIDIA&comma; <a class&equals;"text-outboundlink" href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;deepseek-acaba-lanzar-algo-que-va-a-amargar-dia-a-nvidia-a-empresas-chips-eeuu-se-llama-deepseek-v3-1" data-vars-post-title&equals;"DeepSeek acaba de lanzar algo que va a amargar el día a NVIDIA y a las empresas de chips de EEUU&colon; se llama DeepSeek-V3&period;1" data-vars-post-url&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;deepseek-acaba-lanzar-algo-que-va-a-amargar-dia-a-nvidia-a-empresas-chips-eeuu-se-llama-deepseek-v3-1">una estrategia que ya vimos reflejada con DeepSeek 3&period;1<&sol;a>&period;<&sol;p>&NewLine;<p><&excl;-- BREAK 2 --><&sol;p>&NewLine;<div class&equals;"article-asset-image article-asset-normal article-asset-center">&NewLine;<div class&equals;"asset-content">&NewLine;<p> <img alt&equals;"China Bandera" class&equals;"centro&lowbar;sinmarco" src&equals;"https&colon;&sol;&sol;i&period;blogs&period;es&sol;c6a9fb&sol;china-bandera&sol;450&lowbar;1000&period;jpeg"><&sol;p><&sol;div>&NewLine;<&sol;div>&NewLine;<p>SpikingBrain-1&period;0 está inspirado directamente en cómo funciona nuestro cerebro&period; En vez de tener neuronas que siempre están &OpenCurlyDoubleQuote;encendidas” calculando números&comma; usa neuronas espigadas&colon; unidades que van acumulando señales hasta que superan un umbral y disparan un pico &lpar;spike&rpar;&period; Entre pico y pico no hacen nada&comma; lo que ahorra operaciones y&comma; en teoría&comma; energía&period; La clave es que no solo importa cuántos picos hay&comma; sino cuándo ocurren&colon; el momento exacto y el orden de esos picos llevan información&comma; como pasa en el cerebro&period;<&sol;p>&NewLine;<p>Para que este diseño funcione con el ecosistema actual&comma; el equipo desarrolló métodos que convierten los bloques de autoatención tradicionales en versiones lineales&comma; más fáciles de integrar en su sistema espigado&comma; y creó una especie de &OpenCurlyDoubleQuote;tiempo virtual” que <strong>simula los procesos temporales <&sol;strong>sin frenar el rendimiento en GPU&period; Además&comma; la versión SpikingBrain-76B incluye Mixture of Experts &lpar;MoE&rpar;&comma; un sistema que &OpenCurlyDoubleQuote;despierta” solo a ciertos submodelos cuando hacen falta&comma; que también hemos visto en <a class&equals;"text-outboundlink" href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;basics&sol;gpt-4o-que-que-se-diferencia-gpt-4" data-vars-post-title&equals;"GPT-4o&colon; qué es y en qué se diferencia con GPT-4" data-vars-post-url&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;basics&sol;gpt-4o-que-que-se-diferencia-gpt-4">GPT-4o<&sol;a> y <a class&equals;"text-outboundlink" href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;que-hace-gpt-5-funcion-que-estes-dispuesto-a-pagar-esquema-para-entender-nuevo-openai-chatgpt" data-vars-post-title&equals;"Qué hace GPT-5 en función de lo que estés dispuesto a pagar&colon; un esquema para entender lo nuevo de OpenAI en ChatGPT" data-vars-post-url&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;que-hace-gpt-5-funcion-que-estes-dispuesto-a-pagar-esquema-para-entender-nuevo-openai-chatgpt">GPT-5<&sol;a>&period; <&sol;p>&NewLine;<p><&excl;-- BREAK 3 --><&sol;p>&NewLine;<div class&equals;"article-asset-image article-asset-normal article-asset-center">&NewLine;<div class&equals;"asset-content">&NewLine;<p> <img alt&equals;"Arquitectura Modelo Chino 1" class&equals;"centro&lowbar;sinmarco" src&equals;"https&colon;&sol;&sol;i&period;blogs&period;es&sol;e06c1d&sol;arquitectura-modelo-chino-1&sol;450&lowbar;1000&period;png"><&sol;p><&sol;div>&NewLine;<&sol;div>&NewLine;<p>Los autores sugieren aplicaciones donde la longitud de contexto es determinante&colon; análisis de grandes expedientes jurídicos&comma; historias clínicas completas&comma; secuenciación de ADN y conjuntos masivos de datos experimentales en física de altas energías&comma; entre otros&period; Ese encaje aparece razonado en el documento&colon; si la arquitectura mantiene eficiencia en contextos de millones de tokens&comma; reduciría costes y abriría posibilidades en dominios hoy limitados por el acceso a infraestructuras de cómputo muy caras&period; Pero queda pendiente la validación en entornos reales fuera del laboratorio&period; <&sol;p>&NewLine;<p><&excl;-- BREAK 4 --><&sol;p>&NewLine;<div class&equals;"article-asset article-asset-normal article-asset-center">&NewLine;<div class&equals;"desvio-container">&NewLine;<div class&equals;"desvio">&NewLine;<div class&equals;"desvio-figure js-desvio-figure">&NewLine; <a href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;alianza-asml-mistral-desvela-plan-b-europeo-no-podemos-fabricar-chips-al-controlaremos-como-se-fabrican" class&equals;"pivot-outboundlink" data-vars-post-title&equals;"La alianza ASML-Mistral desvela el plan B europeo&colon; si no podemos fabricar chips&comma; al menos controlaremos cómo se fabrican"><br &sol;>&NewLine; <img alt&equals;"La alianza ASML-Mistral desvela el plan B europeo&colon; si no podemos fabricar chips&comma; al menos controlaremos cómo se fabrican" width&equals;"375" height&equals;"142" src&equals;"https&colon;&sol;&sol;i&period;blogs&period;es&sol;7b69d5&sol;1366&lowbar;2000&sol;375&lowbar;142&period;jpeg"><br &sol;>&NewLine; <&sol;a>&NewLine; <&sol;div>&NewLine;<div class&equals;"desvio-summary">&NewLine;<div class&equals;"desvio-taxonomy js-desvio-taxonomy">&NewLine; <a href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;alianza-asml-mistral-desvela-plan-b-europeo-no-podemos-fabricar-chips-al-controlaremos-como-se-fabrican" class&equals;"desvio-taxonomy-anchor pivot-outboundlink" data-vars-post-title&equals;"La alianza ASML-Mistral desvela el plan B europeo&colon; si no podemos fabricar chips&comma; al menos controlaremos cómo se fabrican">En Xataka<&sol;a>&NewLine; <&sol;div>&NewLine;<p> <a href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;alianza-asml-mistral-desvela-plan-b-europeo-no-podemos-fabricar-chips-al-controlaremos-como-se-fabrican" class&equals;"desvio-title js-desvio-title pivot-outboundlink" data-vars-post-title&equals;"La alianza ASML-Mistral desvela el plan B europeo&colon; si no podemos fabricar chips&comma; al menos controlaremos cómo se fabrican">La alianza ASML-Mistral desvela el plan B europeo&colon; si no podemos fabricar chips&comma; al menos controlaremos cómo se fabrican<&sol;a>&NewLine; <&sol;div>&NewLine;<&sol;p><&sol;div>&NewLine;<&sol;p><&sol;div>&NewLine;<&sol;div>&NewLine;<p>El equipo <a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;github&period;com&sol;BICLab&sol;SpikingBrain-7B">ha liberado en GitHub el código de la versión de 7&period;000 millones de parámetros<&sol;a> junto a un informe técnico detallado&period; <a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;controller-fold-injuries-thick&period;trycloudflare&period;com&sol;">También ofrece una interfaz web similar a ChatGPT para interactuar con el modelo<&sol;a>&comma; que según los autores está desplegado íntegramente en hardware nacional&period; El acceso&comma; sin embargo&comma; <strong>está limitado al chino<&sol;strong>&comma; lo que complica su uso fuera de ese ecosistema&period; La propuesta es ambiciosa&comma; pero su verdadero alcance dependerá de que la comunidad logre reproducir los resultados y realizar comparativas en entornos homogéneos que evalúen precisión&comma; latencias y consumo energético en condiciones reales&period;<&sol;p>&NewLine;<p>Imágenes &vert; Xataka con Gemini 2&period;5 &vert; <a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;unsplash&period;com&sol;es&sol;fotos&sol;una-bandera-china-ondea-alto-en-el-cielo-SI8x3-z-Dck">aboodi vesakaran<&sol;a> <&sol;p>&NewLine;<p>En Xataka &vert; <a class&equals;"text-outboundlink" href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;openai-cree-haber-descubierto-porque-ias-alucinan-no-saben-decir-no-se" data-vars-post-title&equals;"OpenAI cree haber descubierto porqué las IAs alucinan&colon; no saben decir &OpenCurlyDoubleQuote;no lo sé” " data-vars-post-url&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;openai-cree-haber-descubierto-porque-ias-alucinan-no-saben-decir-no-se">OpenAI cree haber descubierto porqué las IAs alucinan&colon; no saben decir &OpenCurlyDoubleQuote;no lo sé”<&sol;a><&sol;p>&NewLine;<p><&excl;-- BREAK 5 --><&sol;p>&NewLine;<p> &&num;8211&semi; <br &sol;> La noticia<br &sol;>&NewLine; <a href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;china-no-se-conforma-alejarse-nvidia-su-siguiente-paso-corazon-ia-sistema-que-rompe-moldes&quest;utm&lowbar;source&equals;feedburner&amp&semi;utm&lowbar;medium&equals;feed&amp&semi;utm&lowbar;campaign&equals;08&lowbar;Sep&lowbar;2025"><br &sol;>&NewLine; <em> China ya no se conforma con alejarse de NVIDIA&period; Su siguiente paso es el corazón de la IA con un sistema que rompe moldes <&sol;em><br &sol;>&NewLine; <&sol;a><br &sol;>&NewLine; fue publicada originalmente en<br &sol;>&NewLine; <a href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;&quest;utm&lowbar;source&equals;feedburner&amp&semi;utm&lowbar;medium&equals;feed&amp&semi;utm&lowbar;campaign&equals;08&lowbar;Sep&lowbar;2025"><br &sol;>&NewLine; <strong> Xataka <&sol;strong><br &sol;>&NewLine; <&sol;a><br &sol;>&NewLine; por <a href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;autor&sol;javier-marquez&quest;utm&lowbar;source&equals;feedburner&amp&semi;utm&lowbar;medium&equals;feed&amp&semi;utm&lowbar;campaign&equals;08&lowbar;Sep&lowbar;2025"><br &sol;>&NewLine; Javier Marquez<br &sol;>&NewLine; <&sol;a><br &sol;>&NewLine; &period; <&sol;p>&NewLine;<p>&ZeroWidthSpace;En 2017&comma; el paper &OpenCurlyDoubleQuote;Attention Is All You Need” de Google cambió la base técnica de la generación de lenguaje&colon; los Transformers permitieron procesar secuencias largas en paralelo y escalar modelos hasta tamaños que antes eran inviables&period; Esa ruta de escalado ha impulsado a arquitecturas como GPT y BERT y ha convertido la autoatención en la pieza central de la IA generativa contemporánea&period; Pero este novedoso enfoque llegó acompañado de costes crecientes en memoria y energía cuando el contexto se alarga&comma; una limitación que ha motivado investigaciones para desarrollar alternativas&period; SpikingBrain-1&period;0 apunta a romper moldes&period;Del &OpenCurlyDoubleQuote;Attention Is All You Need” al cerebro&colon; la nueva apuesta para romper límites en IAUn equipo del Instituto de Automatización de la Academia China de Ciencias acaba de presentar SpikingBrain-1&period;0&period; Estamos hablando de una familia de modelos espigados orientada a reducir datos y cómputo necesarios para tareas con contextos muy largos&period; Los expertos proponen dos enfoques&colon; SpikingBrain-7B&comma; de arquitectura lineal enfocada a eficiencia&comma; y SpikingBrain-76B&comma; que combina atención lineal con mecanismos Mixture of Experts &lpar;MoE&rpar; de mayor capacidad&period;<&sol;p>&NewLine;<p>Los autores detallan que gran parte del desarrollo y las pruebas se llevaron a cabo en clústeres de GPU MetaX C550&comma; con bibliotecas y operadores diseñados específicamente para esa plataforma&period; Esto convierte el proyecto no solo en un avance prometedor a nivel de software&comma; sino también en una demostración de capacidades de hardware propio&period; Un aspecto especialmente relevante si se tiene en cuenta el esfuerzo de China por reducir su dependencia de NVIDIA&comma; una estrategia que ya vimos reflejada con DeepSeek 3&period;1&period;<&sol;p>&NewLine;<p>SpikingBrain-1&period;0 está inspirado directamente en cómo funciona nuestro cerebro&period; En vez de tener neuronas que siempre están &OpenCurlyDoubleQuote;encendidas” calculando números&comma; usa neuronas espigadas&colon; unidades que van acumulando señales hasta que superan un umbral y disparan un pico &lpar;spike&rpar;&period; Entre pico y pico no hacen nada&comma; lo que ahorra operaciones y&comma; en teoría&comma; energía&period; La clave es que no solo importa cuántos picos hay&comma; sino cuándo ocurren&colon; el momento exacto y el orden de esos picos llevan información&comma; como pasa en el cerebro&period;Para que este diseño funcione con el ecosistema actual&comma; el equipo desarrolló métodos que convierten los bloques de autoatención tradicionales en versiones lineales&comma; más fáciles de integrar en su sistema espigado&comma; y creó una especie de &OpenCurlyDoubleQuote;tiempo virtual” que simula los procesos temporales sin frenar el rendimiento en GPU&period; Además&comma; la versión SpikingBrain-76B incluye Mixture of Experts &lpar;MoE&rpar;&comma; un sistema que &OpenCurlyDoubleQuote;despierta” solo a ciertos submodelos cuando hacen falta&comma; que también hemos visto en GPT-4o y GPT-5&period; <&sol;p>&NewLine;<p>Los autores sugieren aplicaciones donde la longitud de contexto es determinante&colon; análisis de grandes expedientes jurídicos&comma; historias clínicas completas&comma; secuenciación de ADN y conjuntos masivos de datos experimentales en física de altas energías&comma; entre otros&period; Ese encaje aparece razonado en el documento&colon; si la arquitectura mantiene eficiencia en contextos de millones de tokens&comma; reduciría costes y abriría posibilidades en dominios hoy limitados por el acceso a infraestructuras de cómputo muy caras&period; Pero queda pendiente la validación en entornos reales fuera del laboratorio&period; <&sol;p>&NewLine;<p> En Xataka<&sol;p>&NewLine;<p> La alianza ASML-Mistral desvela el plan B europeo&colon; si no podemos fabricar chips&comma; al menos controlaremos cómo se fabrican<&sol;p>&NewLine;<p>El equipo ha liberado en GitHub el código de la versión de 7&period;000 millones de parámetros junto a un informe técnico detallado&period; También ofrece una interfaz web similar a ChatGPT para interactuar con el modelo&comma; que según los autores está desplegado íntegramente en hardware nacional&period; El acceso&comma; sin embargo&comma; está limitado al chino&comma; lo que complica su uso fuera de ese ecosistema&period; La propuesta es ambiciosa&comma; pero su verdadero alcance dependerá de que la comunidad logre reproducir los resultados y realizar comparativas en entornos homogéneos que evalúen precisión&comma; latencias y consumo energético en condiciones reales&period;Imágenes &vert; Xataka con Gemini 2&period;5 &vert; aboodi vesakaran En Xataka &vert; OpenAI cree haber descubierto porqué las IAs alucinan&colon; no saben decir &OpenCurlyDoubleQuote;no lo sé”<&sol;p>&NewLine;<p> &&num;8211&semi; La noticia<&sol;p>&NewLine;<p> China ya no se conforma con alejarse de NVIDIA&period; Su siguiente paso es el corazón de la IA con un sistema que rompe moldes <&sol;p>&NewLine;<p> fue publicada originalmente en<&sol;p>&NewLine;<p> Xataka <&sol;p>&NewLine;<p> por<br &sol;>&NewLine; Javier Marquez<&sol;p>&NewLine;<p> &period;   <&sol;p>&NewLine;<p>&ZeroWidthSpace;   <&sol;p>&NewLine;<p>&ZeroWidthSpace; <&sol;p>&NewLine;

Leave a Reply

Your email address will not be published. Required fields are marked *

Noticias Importantes

Copyright © 2017 ERM DIGITAL. powered by ERM.