Ciencia y Tecnología

Google ha logrado que la IA consuma hasta seis veces menos memoria. Micron, Samsung y SK Hynix lo están pagando muy caro

Published

on

<p>&NewLine; <img src&equals;"https&colon;&sol;&sol;i&period;blogs&period;es&sol;66f0b7&sol;memorias&sol;1024&lowbar;2000&period;jpeg" alt&equals;"Google ha logrado que la IA consuma hasta seis veces menos memoria&period; Micron&comma; Samsung y SK Hynix lo están pagando muy caro">&NewLine; <&sol;p>&NewLine;<p>Llevamos <a class&equals;"text-outboundlink" href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;moviles&sol;crisis-ram-esta-a-punto-acabar-smartphone-barato-ia-ha-secuestrado-chips-que-hacian-posible" data-vars-post-title&equals;'"No es un apretón temporal&comma; es un tsunami"&colon; estamos viendo en vivo y en directo cómo desaparece el smartphone barato' data-vars-post-url&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;moviles&sol;crisis-ram-esta-a-punto-acabar-smartphone-barato-ia-ha-secuestrado-chips-que-hacian-posible">meses<&sol;a> envueltos en la <a class&equals;"text-outboundlink" href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;componentes&sol;que-precio-ram-este-nubes-tiene-ganador-samsung-ha-triplicado-sus-beneficios" data-vars-post-title&equals;"El disparatado precio de las memorias RAM son malas noticias para todo el mundo&period; Excepto para Samsung" data-vars-post-url&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;componentes&sol;que-precio-ram-este-nubes-tiene-ganador-samsung-ha-triplicado-sus-beneficios">crisis de la memoria<&sol;a>&comma; pero quizás haya una salida&period; La semana pasada Google Research <a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;research&period;google&sol;blog&sol;turboquant-redefining-ai-efficiency-with-extreme-compression&sol;&quest;utm&lowbar;source&equals;twitter&amp&semi;utm&lowbar;medium&equals;social&amp&semi;utm&lowbar;campaign&equals;social&lowbar;post&amp&semi;utm&lowbar;content&equals;gr-acct">publicó un estudio<&sol;a> en el que desvelaba una técnica llamada TurboQuant&period; Se trata de un algoritmo de compresión capaz de comprimir la memoria de trabajo de los modelos de IA hasta seis veces sin pérdida apreciable de calidad o rendimiento&period; Fantásticas noticias para los usuarios finales&comma; que ven una luz al final del túnel&comma; pero terribles para los fabricantes&comma; a los que <a class&equals;"text-outboundlink" href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;empresas-y-economia&sol;micron-sabia-que-crisis-memoria-ram-le-iba-a-venir-fenomenal-realidad-le-ha-ido-mejor" data-vars-post-title&equals;"En la crisis global de la RAM&comma; Micron está descubriendo algo&colon; cuanto peor para todos&comma; mejor para sus cuentas" data-vars-post-url&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;empresas-y-economia&sol;micron-sabia-que-crisis-memoria-ram-le-iba-a-venir-fenomenal-realidad-le-ha-ido-mejor">se les puede acabar esta época dorada<&sol;a>&period;<&sol;p>&NewLine;<p><&excl;-- BREAK 1 --><&sol;p>&NewLine;<p><strong>Expliquemos qué es eso del KV cache<&sol;strong>&period; Para entender TurboQuant hay que entender qué es esa memoria que logra comprimir&period; Cuando un modelo de lenguaje <a class&equals;"text-outboundlink" href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;he-probado-nuevos-modelos-openai-ha-sido-pequena-odisea-premio-tengo-chatgpt-local" data-vars-post-title&equals;"He probado los nuevos modelos de OpenAI&period; Ha sido una pequeña odisea con premio&colon; tengo un ChatGPT en local" data-vars-post-url&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;he-probado-nuevos-modelos-openai-ha-sido-pequena-odisea-premio-tengo-chatgpt-local">procesa una conversación larga<&sol;a>&comma; necesita recordar el contexto&period; Cada token que se procesa queda almacenado en la llamada KV cache&comma; una especie de memoria de trabajo que crece a medida que conversamos&period; Cuanto más larga es la conversación&comma; más memoria necesita el modelo&period; <&sol;p>&NewLine;<p><&excl;-- BREAK 2 --><&sol;p>&NewLine;<p><strong>Comprimiendo que es gerundio<&sol;strong>&period; Es uno de los principales cuellos de botella en la etapa de inferencia de IA &lpar;es decir&comma; cuando usamos los modelos&rpar;&comma; y un de los motivos por los que los centros de datos <a class&equals;"text-outboundlink" href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;componentes&sol;plena-crisis-memoria-ram-samsung-da-salto-su-memoria-hbm4-no-buenas-noticias-para-bolsillo" data-vars-post-title&equals;"En plena crisis de la memoria RAM&comma; Samsung da un salto con su memoria HBM4&period; No implica buenas noticias para el bolsillo" data-vars-post-url&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;componentes&sol;plena-crisis-memoria-ram-samsung-da-salto-su-memoria-hbm4-no-buenas-noticias-para-bolsillo">necesitan tanta memoria RAM o HBM<&sol;a>&period; TurboQuant hace uso de un método de cuantización vectorial a esa caché para lograr comprimirla manteniendo la precisión del modelo&period;<&sol;p>&NewLine;<p><&excl;-- BREAK 3 --><&sol;p>&NewLine;<div class&equals;"article-asset-image article-asset-small article-asset-center">&NewLine;<div class&equals;"asset-content">&NewLine; <a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;x&period;com&sol;whyshivang&sol;status&sol;2036874449354711249"><&sol;p>&NewLine;<p> <img alt&equals;"Captura De Pantalla 2026 03 30 A Las 8 50 54" class&equals;"centro&lowbar;sinmarco" src&equals;"https&colon;&sol;&sol;i&period;blogs&period;es&sol;6c811d&sol;captura-de-pantalla-2026-03-30-a-las-8&period;50&period;54&sol;450&lowbar;1000&period;jpeg"><br &sol;>&NewLine; <&sol;a><&sol;p><&sol;div>&NewLine;<&sol;div>&NewLine;<p><strong>Pied Piper<&sol;strong>&period; Nada más aparecer este estudio de Google comenzaron las analogías <a class&equals;"text-outboundlink" href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;cine-y-tv&sol;lo-mejor-de-silicon-valley-es-que-las-fases-de-una-startup-se-parecen-a-lo-que-cuentan-lo-peor-tambien-es-eso" data-vars-post-title&equals;"Lo mejor de 'Silicon Valley' es que las fases de una startup se parecen a lo que cuentan&period; Lo peor también es eso" data-vars-post-url&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;cine-y-tv&sol;lo-mejor-de-silicon-valley-es-que-las-fases-de-una-startup-se-parecen-a-lo-que-cuentan-lo-peor-tambien-es-eso">con la trama de la serie 'Silicon Valley'<&sol;a>&period; En ella la startup ficticia de la trama lograba desarrollar un algoritmo de compresión llamado Pied Piper extraordinariamente eficiente que amenazaba con revolucionar la industria tecnológica&period; Estos días en las redes sociales aparecieron múltiples referencias a la serie&comma; que ya había sido referenciada como visionaria por reflejar lo que está pasando con una exactitud espectacular aun cuando la serie era una comedia&period; <&sol;p>&NewLine;<p><&excl;-- BREAK 4 --><&sol;p>&NewLine;<p><strong>Seis veces menos memoria<&sol;strong>&period; El paper de Google Research afirma que este método es capaz de reducir la KV cache seis veces sin diferencia apreciable en el rendimiento en conversaciones largas&period; Los investigadores presentarán sus resultados en un evento el mes que viene y explicarán los dos métodos que permiten ponerla en práctica&period; Si confirman lo que ya han adelantado&comma; las implicaciones son enormes&colon; menos memoria para inferencia significa que los centros de datos pueden hacer lo mismo con mucho menos hardware&sol;memoria&period;<&sol;p>&NewLine;<div class&equals;"article-asset-video article-asset-normal">&NewLine;<div class&equals;"asset-content">&NewLine;<div class&equals;"base-asset-video">&NewLine;<div class&equals;"js-dailymotion"><&sol;div>&NewLine;<&sol;p><&sol;div>&NewLine;<&sol;p><&sol;div>&NewLine;<&sol;div>&NewLine;<p><strong>El momento DeepSeek de Google<&sol;strong>&period; El descubrimiento ha hecho que algunos analistas califiquen esto como el "momento DeepSeek" de Google&period; Hace un año la startup china DeepSeek lanzó un modelo de IA que competía con los mejores pero que había costado mucho menos desarrollar&period; Eso sacudió la industria&comma; y ahora volvemos a un logro técnico que apunta a lo mismo&period; En IA hacer lo mismo con menos es crucial&comma; dado los ingentes recursos que necesita esta tecnología&period; <a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;www&period;reddit&period;com&sol;r&sol;LocalLLM&sol;comments&sol;1s6edoi&sol;turboquant&lowbar;implementation&sol;">Hay quienes<&sol;a> ya <a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;x&period;com&sol;iotcoi&sol;status&sol;2036755007131853254">han hecho<&sol;a> pruebas <a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;x&period;com&sol;dejanseo&sol;status&sol;2036697911262908912">preliminares<&sol;a> con TurboQuant y han confirmado que efectivamente el método funciona&period;<&sol;p>&NewLine;<p><&excl;-- BREAK 5 --><&sol;p>&NewLine;<p><strong>Micron&comma; Samsung y SK Hynix lo pagan caro<&sol;strong>&period; El impacto de esta técnica puede ser enorme&comma; y eso ya se ha empezado a notar en las valoraciones de las acciones en bolsa de los fabricantes de memorias DRAM y HBM&period; Empresas como Micron&comma; Samsung&comma; SK Hynix&comma; SanDisk o Kioxia cayeron de forma notable la semana pasada desde sus recientes máximos&period; El 18 de marzo rondaba los 471 dólares&comma; y hoy sus acciones están a 357 dólares&comma; lo que supone una asombrosa caída del 24&comma;2&percnt;&period; Lo mismo ha pasado con el resto de fabricantes&comma; que ya  estaban cayendo desde esa fecha&comma; pero que se han acelerado en esa caída con el lanzamiento de TurboQuant&period;<&sol;p>&NewLine;<div class&equals;"article-asset-rich-content article-asset-normal">&NewLine;<div class&equals;"asset-content"><&sol;div>&NewLine;<&sol;div>&NewLine;<p><strong>Pero<&sol;strong>&period; La técnica se puede aplicar teóricamente solo a la fase de inferencia&comma; pero la fase de entrenamiento de modelos de IA no se ve afectada por esta técnica de compresión&period; Así pues&comma; durante la fase de entrenamiento se seguirán necesitando cantidades ingentes de memoria&period; Además <a class&equals;"text-outboundlink" href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;componentes&sol;seagate-nos-advierte-que-memorias-seguiran-subiendo-precio-ia-este-auge-hay-algo-que-nos-preocupa" data-vars-post-title&equals;"Si esperabas una bajada del precio de la RAM este año&comma; la guerra de Irán tiene un mensaje para ti&colon; olvídate" data-vars-post-url&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;componentes&sol;seagate-nos-advierte-que-memorias-seguiran-subiendo-precio-ia-este-auge-hay-algo-que-nos-preocupa">tendremos que esperar<&sol;a> a que las empresas de IA efectivamente comiencen a aplicar dicho sistema si se confirma que funciona&comma; y será entonces cuando podamos ver <a class&equals;"text-outboundlink" href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;componentes&sol;panico-tecnologicas-quedarse-chips-ha-roto-mercado-memoria-ram-fabricantes-han-dicho-basta" data-vars-post-title&equals;'Los fabricantes de RAM se han cansado de que las tecnológicas compren "por si acaso"&period; Así que se han puesto serias' data-vars-post-url&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;componentes&sol;panico-tecnologicas-quedarse-chips-ha-roto-mercado-memoria-ram-fabricantes-han-dicho-basta">el impacto real<&sol;a>&period; Teóricamente esto dará mucho margen de maniobra a las grandes tecnológicas&comma; que podrán reducir aún más los precios por tokens&comma; pero está por ver si lo hacen&period;<&sol;p>&NewLine;<p><&excl;-- BREAK 6 --><&sol;p>&NewLine;<div class&equals;"article-asset-image article-asset-normal article-asset-center">&NewLine;<div class&equals;"asset-content">&NewLine;<p> <img alt&equals;"Captura De Pantalla 2026 03 30 A Las 9 39 58" class&equals;"centro&lowbar;sinmarco" src&equals;"https&colon;&sol;&sol;i&period;blogs&period;es&sol;057323&sol;captura-de-pantalla-2026-03-30-a-las-9&period;39&period;58&sol;450&lowbar;1000&period;jpeg"><&sol;p><&sol;div>&NewLine;<&sol;div>&NewLine;<p><strong>Las memorias RAM bajan de precio<&sol;strong>&period; El impacto de TurboQuant ha sido también claro en los precios de los módulos de memoria&comma; que han bajado de forma apreciable en precio&period; Por ejemplo&comma; los módulos Corsair Vengeance DDR5 32 GB 6000MHz &lpar;2x16GB&rpar; estaban a 489&comma;59 euros en Amazon hasta hace unas semanas según CamelCamelCamel&comma; pero ahora mismo están a 339&comma;89 euros&comma; una rebaja notable&period; Es cierto que no todos los componentes están bajando igual&comma; pero efectivamente sí hay casos en los que las rebajas parecen estar produciéndose&period;<&sol;p>&NewLine;<p><&excl;-- BREAK 7 --><&sol;p>&NewLine;<p>En Xataka &vert; <a class&equals;"text-outboundlink" href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;componentes&sol;mercado-ram-totalmente-destruido-valve-tiene-mensaje-para-crear-steam-machine-ayuda" data-vars-post-title&equals;"La crisis de la RAM se está llevando por delante todos los planes de Valve con su Steam Machine" data-vars-post-url&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;componentes&sol;mercado-ram-totalmente-destruido-valve-tiene-mensaje-para-crear-steam-machine-ayuda">La crisis de la RAM se está llevando por delante todos los planes de Valve con su Steam Machine<&sol;a><&sol;p>&NewLine;<p> &&num;8211&semi; <br &sol;> La noticia<br &sol;>&NewLine; <a href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;google-ha-logrado-que-ia-consuma-seis-veces-memoria-micron-samsung-sk-hynix-estan-pagando-muy-caro&quest;utm&lowbar;source&equals;feedburner&amp&semi;utm&lowbar;medium&equals;feed&amp&semi;utm&lowbar;campaign&equals;30&lowbar;Mar&lowbar;2026"><br &sol;>&NewLine; <em> Google ha logrado que la IA consuma hasta seis veces menos memoria&period; Micron&comma; Samsung y SK Hynix lo están pagando muy caro <&sol;em><br &sol;>&NewLine; <&sol;a><br &sol;>&NewLine; fue publicada originalmente en<br &sol;>&NewLine; <a href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;&quest;utm&lowbar;source&equals;feedburner&amp&semi;utm&lowbar;medium&equals;feed&amp&semi;utm&lowbar;campaign&equals;30&lowbar;Mar&lowbar;2026"><br &sol;>&NewLine; <strong> Xataka <&sol;strong><br &sol;>&NewLine; <&sol;a><br &sol;>&NewLine; por <a href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;autor&sol;javier-pastor&quest;utm&lowbar;source&equals;feedburner&amp&semi;utm&lowbar;medium&equals;feed&amp&semi;utm&lowbar;campaign&equals;30&lowbar;Mar&lowbar;2026"><br &sol;>&NewLine; Javier Pastor<br &sol;>&NewLine; <&sol;a><br &sol;>&NewLine; &period; <&sol;p>&NewLine;<p> Llevamos meses envueltos en la crisis de la memoria&comma; pero quizás haya una salida&period; La semana pasada Google Research publicó un estudio en el que desvelaba una técnica llamada TurboQuant&period; Se trata de un algoritmo de compresión capaz de comprimir la memoria de trabajo de los modelos de IA hasta seis veces sin pérdida apreciable de calidad o rendimiento&period; Fantásticas noticias para los usuarios finales&comma; que ven una luz al final del túnel&comma; pero terribles para los fabricantes&comma; a los que se les puede acabar esta época dorada&period;<&sol;p>&NewLine;<p>Expliquemos qué es eso del KV cache&period; Para entender TurboQuant hay que entender qué es esa memoria que logra comprimir&period; Cuando un modelo de lenguaje procesa una conversación larga&comma; necesita recordar el contexto&period; Cada token que se procesa queda almacenado en la llamada KV cache&comma; una especie de memoria de trabajo que crece a medida que conversamos&period; Cuanto más larga es la conversación&comma; más memoria necesita el modelo&period; <&sol;p>&NewLine;<p>Comprimiendo que es gerundio&period; Es uno de los principales cuellos de botella en la etapa de inferencia de IA &lpar;es decir&comma; cuando usamos los modelos&rpar;&comma; y un de los motivos por los que los centros de datos necesitan tanta memoria RAM o HBM&period; TurboQuant hace uso de un método de cuantización vectorial a esa caché para lograr comprimirla manteniendo la precisión del modelo&period;<&sol;p>&NewLine;<p>Pied Piper&period; Nada más aparecer este estudio de Google comenzaron las analogías con la trama de la serie 'Silicon Valley'&period; En ella la startup ficticia de la trama lograba desarrollar un algoritmo de compresión llamado Pied Piper extraordinariamente eficiente que amenazaba con revolucionar la industria tecnológica&period; Estos días en las redes sociales aparecieron múltiples referencias a la serie&comma; que ya había sido referenciada como visionaria por reflejar lo que está pasando con una exactitud espectacular aun cuando la serie era una comedia&period; <br &sol;>&NewLine;Seis veces menos memoria&period; El paper de Google Research afirma que este método es capaz de reducir la KV cache seis veces sin diferencia apreciable en el rendimiento en conversaciones largas&period; Los investigadores presentarán sus resultados en un evento el mes que viene y explicarán los dos métodos que permiten ponerla en práctica&period; Si confirman lo que ya han adelantado&comma; las implicaciones son enormes&colon; menos memoria para inferencia significa que los centros de datos pueden hacer lo mismo con mucho menos hardware&sol;memoria&period;<&sol;p>&NewLine;<p>El momento DeepSeek de Google&period; El descubrimiento ha hecho que algunos analistas califiquen esto como el "momento DeepSeek" de Google&period; Hace un año la startup china DeepSeek lanzó un modelo de IA que competía con los mejores pero que había costado mucho menos desarrollar&period; Eso sacudió la industria&comma; y ahora volvemos a un logro técnico que apunta a lo mismo&period; En IA hacer lo mismo con menos es crucial&comma; dado los ingentes recursos que necesita esta tecnología&period; Hay quienes ya han hecho pruebas preliminares con TurboQuant y han confirmado que efectivamente el método funciona&period;<br &sol;>&NewLine;Micron&comma; Samsung y SK Hynix lo pagan caro&period; El impacto de esta técnica puede ser enorme&comma; y eso ya se ha empezado a notar en las valoraciones de las acciones en bolsa de los fabricantes de memorias DRAM y HBM&period; Empresas como Micron&comma; Samsung&comma; SK Hynix&comma; SanDisk o Kioxia cayeron de forma notable la semana pasada desde sus recientes máximos&period; El 18 de marzo rondaba los 471 dólares&comma; y hoy sus acciones están a 357 dólares&comma; lo que supone una asombrosa caída del 24&comma;2&percnt;&period; Lo mismo ha pasado con el resto de fabricantes&comma; que ya  estaban cayendo desde esa fecha&comma; pero que se han acelerado en esa caída con el lanzamiento de TurboQuant&period;<&sol;p>&NewLine;<p>Pero&period; La técnica se puede aplicar teóricamente solo a la fase de inferencia&comma; pero la fase de entrenamiento de modelos de IA no se ve afectada por esta técnica de compresión&period; Así pues&comma; durante la fase de entrenamiento se seguirán necesitando cantidades ingentes de memoria&period; Además tendremos que esperar a que las empresas de IA efectivamente comiencen a aplicar dicho sistema si se confirma que funciona&comma; y será entonces cuando podamos ver el impacto real&period; Teóricamente esto dará mucho margen de maniobra a las grandes tecnológicas&comma; que podrán reducir aún más los precios por tokens&comma; pero está por ver si lo hacen&period;<&sol;p>&NewLine;<p>Las memorias RAM bajan de precio&period; El impacto de TurboQuant ha sido también claro en los precios de los módulos de memoria&comma; que han bajado de forma apreciable en precio&period; Por ejemplo&comma; los módulos Corsair Vengeance DDR5 32 GB 6000MHz &lpar;2x16GB&rpar; estaban a 489&comma;59 euros en Amazon hasta hace unas semanas según CamelCamelCamel&comma; pero ahora mismo están a 339&comma;89 euros&comma; una rebaja notable&period; Es cierto que no todos los componentes están bajando igual&comma; pero efectivamente sí hay casos en los que las rebajas parecen estar produciéndose&period;<&sol;p>&NewLine;<p>En Xataka &vert; La crisis de la RAM se está llevando por delante todos los planes de Valve con su Steam Machine<&sol;p>&NewLine;<p> &&num;8211&semi; La noticia<&sol;p>&NewLine;<p> Google ha logrado que la IA consuma hasta seis veces menos memoria&period; Micron&comma; Samsung y SK Hynix lo están pagando muy caro <&sol;p>&NewLine;<p> fue publicada originalmente en<&sol;p>&NewLine;<p> Xataka <&sol;p>&NewLine;<p> por<br &sol;>&NewLine; Javier Pastor<&sol;p>&NewLine;<p> &period;   <&sol;p>&NewLine;

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Trending

Copyright 2025 ERM Digital. Todos los derechos reservados.