{"id":8873,"date":"2026-03-30T03:32:50","date_gmt":"2026-03-30T07:32:50","guid":{"rendered":"https:\/\/ermdigital.com\/index.php\/2026\/03\/30\/google-ha-logrado-que-la-ia-consuma-hasta-seis-veces-menos-memoria-micron-samsung-y-sk-hynix-lo-estan-pagando-muy-caro\/"},"modified":"2026-03-30T03:32:50","modified_gmt":"2026-03-30T07:32:50","slug":"google-ha-logrado-que-la-ia-consuma-hasta-seis-veces-menos-memoria-micron-samsung-y-sk-hynix-lo-estan-pagando-muy-caro","status":"publish","type":"post","link":"https:\/\/ermdigital.com\/index.php\/2026\/03\/30\/google-ha-logrado-que-la-ia-consuma-hasta-seis-veces-menos-memoria-micron-samsung-y-sk-hynix-lo-estan-pagando-muy-caro\/","title":{"rendered":"Google ha logrado que la IA consuma hasta seis veces menos memoria. Micron, Samsung y SK Hynix lo est\u00e1n pagando muy caro"},"content":{"rendered":"<p>\n      <img decoding=\"async\" src=\"https:\/\/i.blogs.es\/66f0b7\/memorias\/1024_2000.jpeg\" alt=\"Google ha logrado que la IA consuma hasta seis veces menos memoria. Micron, Samsung y SK Hynix lo est\u00e1n pagando muy caro\">\n    <\/p>\n<p>Llevamos <a class=\"text-outboundlink\" href=\"https:\/\/www.xataka.com\/moviles\/crisis-ram-esta-a-punto-acabar-smartphone-barato-ia-ha-secuestrado-chips-que-hacian-posible\" data-vars-post-title='\"No es un apret\u00f3n temporal, es un tsunami\": estamos viendo en vivo y en directo c\u00f3mo desaparece el smartphone barato' data-vars-post-url=\"https:\/\/www.xataka.com\/moviles\/crisis-ram-esta-a-punto-acabar-smartphone-barato-ia-ha-secuestrado-chips-que-hacian-posible\">meses<\/a> envueltos en la <a class=\"text-outboundlink\" href=\"https:\/\/www.xataka.com\/componentes\/que-precio-ram-este-nubes-tiene-ganador-samsung-ha-triplicado-sus-beneficios\" data-vars-post-title=\"El disparatado precio de las memorias RAM son malas noticias para todo el mundo. Excepto para Samsung\" data-vars-post-url=\"https:\/\/www.xataka.com\/componentes\/que-precio-ram-este-nubes-tiene-ganador-samsung-ha-triplicado-sus-beneficios\">crisis de la memoria<\/a>, pero quiz\u00e1s haya una salida. La semana pasada Google Research <a rel=\"noopener, noreferrer\" href=\"https:\/\/research.google\/blog\/turboquant-redefining-ai-efficiency-with-extreme-compression\/?utm_source=twitter&amp;utm_medium=social&amp;utm_campaign=social_post&amp;utm_content=gr-acct\">public\u00f3 un estudio<\/a> en el que desvelaba una t\u00e9cnica llamada TurboQuant. Se trata de un algoritmo de compresi\u00f3n capaz de comprimir la memoria de trabajo de los modelos de IA hasta seis veces sin p\u00e9rdida apreciable de calidad o rendimiento. Fant\u00e1sticas noticias para los usuarios finales, que ven una luz al final del t\u00fanel, pero terribles para los fabricantes, a los que <a class=\"text-outboundlink\" href=\"https:\/\/www.xataka.com\/empresas-y-economia\/micron-sabia-que-crisis-memoria-ram-le-iba-a-venir-fenomenal-realidad-le-ha-ido-mejor\" data-vars-post-title=\"En la crisis global de la RAM, Micron est\u00e1 descubriendo algo: cuanto peor para todos, mejor para sus cuentas\" data-vars-post-url=\"https:\/\/www.xataka.com\/empresas-y-economia\/micron-sabia-que-crisis-memoria-ram-le-iba-a-venir-fenomenal-realidad-le-ha-ido-mejor\">se les puede acabar esta \u00e9poca dorada<\/a>.<\/p>\n<p><!-- BREAK 1 --><\/p>\n<p><strong>Expliquemos qu\u00e9 es eso del KV cache<\/strong>. Para entender TurboQuant hay que entender qu\u00e9 es esa memoria que logra comprimir. Cuando un modelo de lenguaje <a class=\"text-outboundlink\" href=\"https:\/\/www.xataka.com\/robotica-e-ia\/he-probado-nuevos-modelos-openai-ha-sido-pequena-odisea-premio-tengo-chatgpt-local\" data-vars-post-title=\"He probado los nuevos modelos de OpenAI. Ha sido una peque\u00f1a odisea con premio: tengo un ChatGPT en local\" data-vars-post-url=\"https:\/\/www.xataka.com\/robotica-e-ia\/he-probado-nuevos-modelos-openai-ha-sido-pequena-odisea-premio-tengo-chatgpt-local\">procesa una conversaci\u00f3n larga<\/a>, necesita recordar el contexto. Cada token que se procesa queda almacenado en la llamada KV cache, una especie de memoria de trabajo que crece a medida que conversamos. Cuanto m\u00e1s larga es la conversaci\u00f3n, m\u00e1s memoria necesita el modelo.\u00a0<\/p>\n<p><!-- BREAK 2 --><\/p>\n<p><strong>Comprimiendo que es gerundio<\/strong>. Es uno de los principales cuellos de botella en la etapa de inferencia de IA (es decir, cuando usamos los modelos), y un de los motivos por los que los centros de datos <a class=\"text-outboundlink\" href=\"https:\/\/www.xataka.com\/componentes\/plena-crisis-memoria-ram-samsung-da-salto-su-memoria-hbm4-no-buenas-noticias-para-bolsillo\" data-vars-post-title=\"En plena crisis de la memoria RAM, Samsung da un salto con su memoria HBM4. No implica buenas noticias para el bolsillo\" data-vars-post-url=\"https:\/\/www.xataka.com\/componentes\/plena-crisis-memoria-ram-samsung-da-salto-su-memoria-hbm4-no-buenas-noticias-para-bolsillo\">necesitan tanta memoria RAM o HBM<\/a>. TurboQuant hace uso de un m\u00e9todo de cuantizaci\u00f3n vectorial a esa cach\u00e9 para lograr comprimirla manteniendo la precisi\u00f3n del modelo.<\/p>\n<p><!-- BREAK 3 --><\/p>\n<div class=\"article-asset-image article-asset-small article-asset-center\">\n<div class=\"asset-content\">\n                    <a rel=\"noopener, noreferrer\" href=\"https:\/\/x.com\/whyshivang\/status\/2036874449354711249\"><\/p>\n<p>    <img decoding=\"async\" alt=\"Captura De Pantalla 2026 03 30 A Las 8 50 54\" class=\"centro_sinmarco\" src=\"https:\/\/i.blogs.es\/6c811d\/captura-de-pantalla-2026-03-30-a-las-8.50.54\/450_1000.jpeg\"><br \/>\n     <\/a><\/p><\/div>\n<\/div>\n<p><strong>Pied Piper<\/strong>. Nada m\u00e1s aparecer este estudio de Google comenzaron las analog\u00edas <a class=\"text-outboundlink\" href=\"https:\/\/www.xataka.com\/cine-y-tv\/lo-mejor-de-silicon-valley-es-que-las-fases-de-una-startup-se-parecen-a-lo-que-cuentan-lo-peor-tambien-es-eso\" data-vars-post-title=\"Lo mejor de 'Silicon Valley' es que las fases de una startup se parecen a lo que cuentan. Lo peor tambi\u00e9n es eso\" data-vars-post-url=\"https:\/\/www.xataka.com\/cine-y-tv\/lo-mejor-de-silicon-valley-es-que-las-fases-de-una-startup-se-parecen-a-lo-que-cuentan-lo-peor-tambien-es-eso\">con la trama de la serie 'Silicon Valley'<\/a>. En ella la startup ficticia de la trama lograba desarrollar un algoritmo de compresi\u00f3n llamado Pied Piper extraordinariamente eficiente que amenazaba con revolucionar la industria tecnol\u00f3gica. Estos d\u00edas en las redes sociales aparecieron m\u00faltiples referencias a la serie, que ya hab\u00eda sido referenciada como visionaria por reflejar lo que est\u00e1 pasando con una exactitud espectacular aun cuando la serie era una comedia.\u00a0<\/p>\n<p><!-- BREAK 4 --><\/p>\n<p><strong>Seis veces menos memoria<\/strong>. El paper de Google Research afirma que este m\u00e9todo es capaz de reducir la KV cache seis veces sin diferencia apreciable en el rendimiento en conversaciones largas. Los investigadores presentar\u00e1n sus resultados en un evento el mes que viene y explicar\u00e1n los dos m\u00e9todos que permiten ponerla en pr\u00e1ctica. Si confirman lo que ya han adelantado, las implicaciones son enormes: menos memoria para inferencia significa que los centros de datos pueden hacer lo mismo con mucho menos hardware\/memoria.<\/p>\n<div class=\"article-asset-video article-asset-normal\">\n<div class=\"asset-content\">\n<div class=\"base-asset-video\">\n<div class=\"js-dailymotion\"><\/div>\n<\/p><\/div>\n<\/p><\/div>\n<\/div>\n<p><strong>El momento DeepSeek de Google<\/strong>. El descubrimiento ha hecho que algunos analistas califiquen esto como el \"momento DeepSeek\" de Google. Hace un a\u00f1o la startup china DeepSeek lanz\u00f3 un modelo de IA que compet\u00eda con los mejores pero que hab\u00eda costado mucho menos desarrollar. Eso sacudi\u00f3 la industria, y ahora volvemos a un logro t\u00e9cnico que apunta a lo mismo. En IA hacer lo mismo con menos es crucial, dado los ingentes recursos que necesita esta tecnolog\u00eda. <a rel=\"noopener, noreferrer\" href=\"https:\/\/www.reddit.com\/r\/LocalLLM\/comments\/1s6edoi\/turboquant_implementation\/\">Hay quienes<\/a> ya <a rel=\"noopener, noreferrer\" href=\"https:\/\/x.com\/iotcoi\/status\/2036755007131853254\">han hecho<\/a> pruebas <a rel=\"noopener, noreferrer\" href=\"https:\/\/x.com\/dejanseo\/status\/2036697911262908912\">preliminares<\/a> con TurboQuant y han confirmado que efectivamente el m\u00e9todo funciona.<\/p>\n<p><!-- BREAK 5 --><\/p>\n<p><strong>Micron, Samsung y SK Hynix lo pagan caro<\/strong>. El impacto de esta t\u00e9cnica puede ser enorme, y eso ya se ha empezado a notar en las valoraciones de las acciones en bolsa de los fabricantes de memorias DRAM y HBM. Empresas como Micron, Samsung, SK Hynix, SanDisk o Kioxia cayeron de forma notable la semana pasada desde sus recientes m\u00e1ximos. El 18 de marzo rondaba los 471 d\u00f3lares, y hoy sus acciones est\u00e1n a 357 d\u00f3lares, lo que supone una asombrosa ca\u00edda del 24,2%. Lo mismo ha pasado con el resto de fabricantes, que ya \u00a0estaban cayendo desde esa fecha, pero que se han acelerado en esa ca\u00edda con el lanzamiento de TurboQuant.<\/p>\n<div class=\"article-asset-rich-content article-asset-normal\">\n<div class=\"asset-content\"><\/div>\n<\/div>\n<p><strong>Pero<\/strong>. La t\u00e9cnica se puede aplicar te\u00f3ricamente solo a la fase de inferencia, pero la fase de entrenamiento de modelos de IA no se ve afectada por esta t\u00e9cnica de compresi\u00f3n. As\u00ed pues, durante la fase de entrenamiento se seguir\u00e1n necesitando cantidades ingentes de memoria. Adem\u00e1s <a class=\"text-outboundlink\" href=\"https:\/\/www.xataka.com\/componentes\/seagate-nos-advierte-que-memorias-seguiran-subiendo-precio-ia-este-auge-hay-algo-que-nos-preocupa\" data-vars-post-title=\"Si esperabas una bajada del precio de la RAM este a\u00f1o, la guerra de Ir\u00e1n tiene un mensaje para ti: olv\u00eddate\" data-vars-post-url=\"https:\/\/www.xataka.com\/componentes\/seagate-nos-advierte-que-memorias-seguiran-subiendo-precio-ia-este-auge-hay-algo-que-nos-preocupa\">tendremos que esperar<\/a> a que las empresas de IA efectivamente comiencen a aplicar dicho sistema si se confirma que funciona, y ser\u00e1 entonces cuando podamos ver <a class=\"text-outboundlink\" href=\"https:\/\/www.xataka.com\/componentes\/panico-tecnologicas-quedarse-chips-ha-roto-mercado-memoria-ram-fabricantes-han-dicho-basta\" data-vars-post-title='Los fabricantes de RAM se han cansado de que las tecnol\u00f3gicas compren \"por si acaso\". As\u00ed que se han puesto serias' data-vars-post-url=\"https:\/\/www.xataka.com\/componentes\/panico-tecnologicas-quedarse-chips-ha-roto-mercado-memoria-ram-fabricantes-han-dicho-basta\">el impacto real<\/a>. Te\u00f3ricamente esto dar\u00e1 mucho margen de maniobra a las grandes tecnol\u00f3gicas, que podr\u00e1n reducir a\u00fan m\u00e1s los precios por tokens, pero est\u00e1 por ver si lo hacen.<\/p>\n<p><!-- BREAK 6 --><\/p>\n<div class=\"article-asset-image article-asset-normal article-asset-center\">\n<div class=\"asset-content\">\n<p>   <img decoding=\"async\" alt=\"Captura De Pantalla 2026 03 30 A Las 9 39 58\" class=\"centro_sinmarco\" src=\"https:\/\/i.blogs.es\/057323\/captura-de-pantalla-2026-03-30-a-las-9.39.58\/450_1000.jpeg\"><\/p><\/div>\n<\/div>\n<p><strong>Las memorias RAM bajan de precio<\/strong>. El impacto de TurboQuant ha sido tambi\u00e9n claro en los precios de los m\u00f3dulos de memoria, que han bajado de forma apreciable en precio. Por ejemplo, los m\u00f3dulos Corsair Vengeance DDR5 32 GB 6000MHz (2x16GB) estaban a 489,59 euros en Amazon hasta hace unas semanas seg\u00fan CamelCamelCamel, pero ahora mismo est\u00e1n a 339,89 euros, una rebaja notable. Es cierto que no todos los componentes est\u00e1n bajando igual, pero efectivamente s\u00ed hay casos en los que las rebajas parecen estar produci\u00e9ndose.<\/p>\n<p><!-- BREAK 7 --><\/p>\n<p>En Xataka |\u00a0<a class=\"text-outboundlink\" href=\"https:\/\/www.xataka.com\/componentes\/mercado-ram-totalmente-destruido-valve-tiene-mensaje-para-crear-steam-machine-ayuda\" data-vars-post-title=\"La crisis de la RAM se est\u00e1 llevando por delante todos los planes de Valve con su Steam Machine\" data-vars-post-url=\"https:\/\/www.xataka.com\/componentes\/mercado-ram-totalmente-destruido-valve-tiene-mensaje-para-crear-steam-machine-ayuda\">La crisis de la RAM se est\u00e1 llevando por delante todos los planes de Valve con su Steam Machine<\/a><\/p>\n<p> &#8211; <br \/> La noticia<br \/>\n      <a href=\"https:\/\/www.xataka.com\/robotica-e-ia\/google-ha-logrado-que-ia-consuma-seis-veces-memoria-micron-samsung-sk-hynix-estan-pagando-muy-caro?utm_source=feedburner&amp;utm_medium=feed&amp;utm_campaign=30_Mar_2026\"><br \/>\n       <em> Google ha logrado que la IA consuma hasta seis veces menos memoria. Micron, Samsung y SK Hynix lo est\u00e1n pagando muy caro <\/em><br \/>\n      <\/a><br \/>\n      fue publicada originalmente en<br \/>\n      <a href=\"https:\/\/www.xataka.com\/?utm_source=feedburner&amp;utm_medium=feed&amp;utm_campaign=30_Mar_2026\"><br \/>\n       <strong> Xataka <\/strong><br \/>\n      <\/a><br \/>\n             por <a href=\"https:\/\/www.xataka.com\/autor\/javier-pastor?utm_source=feedburner&amp;utm_medium=feed&amp;utm_campaign=30_Mar_2026\"><br \/>\n        Javier Pastor<br \/>\n       <\/a><br \/>\n      . <\/p>\n<p>\u00a0Llevamos meses envueltos en la crisis de la memoria, pero quiz\u00e1s haya una salida. La semana pasada Google Research public\u00f3 un estudio en el que desvelaba una t\u00e9cnica llamada TurboQuant. Se trata de un algoritmo de compresi\u00f3n capaz de comprimir la memoria de trabajo de los modelos de IA hasta seis veces sin p\u00e9rdida apreciable de calidad o rendimiento. Fant\u00e1sticas noticias para los usuarios finales, que ven una luz al final del t\u00fanel, pero terribles para los fabricantes, a los que se les puede acabar esta \u00e9poca dorada.<\/p>\n<p>Expliquemos qu\u00e9 es eso del KV cache. Para entender TurboQuant hay que entender qu\u00e9 es esa memoria que logra comprimir. Cuando un modelo de lenguaje procesa una conversaci\u00f3n larga, necesita recordar el contexto. Cada token que se procesa queda almacenado en la llamada KV cache, una especie de memoria de trabajo que crece a medida que conversamos. Cuanto m\u00e1s larga es la conversaci\u00f3n, m\u00e1s memoria necesita el modelo.\u00a0<\/p>\n<p>Comprimiendo que es gerundio. Es uno de los principales cuellos de botella en la etapa de inferencia de IA (es decir, cuando usamos los modelos), y un de los motivos por los que los centros de datos necesitan tanta memoria RAM o HBM. TurboQuant hace uso de un m\u00e9todo de cuantizaci\u00f3n vectorial a esa cach\u00e9 para lograr comprimirla manteniendo la precisi\u00f3n del modelo.<\/p>\n<p>Pied Piper. Nada m\u00e1s aparecer este estudio de Google comenzaron las analog\u00edas con la trama de la serie 'Silicon Valley'. En ella la startup ficticia de la trama lograba desarrollar un algoritmo de compresi\u00f3n llamado Pied Piper extraordinariamente eficiente que amenazaba con revolucionar la industria tecnol\u00f3gica. Estos d\u00edas en las redes sociales aparecieron m\u00faltiples referencias a la serie, que ya hab\u00eda sido referenciada como visionaria por reflejar lo que est\u00e1 pasando con una exactitud espectacular aun cuando la serie era una comedia.\u00a0<br \/>\nSeis veces menos memoria. El paper de Google Research afirma que este m\u00e9todo es capaz de reducir la KV cache seis veces sin diferencia apreciable en el rendimiento en conversaciones largas. Los investigadores presentar\u00e1n sus resultados en un evento el mes que viene y explicar\u00e1n los dos m\u00e9todos que permiten ponerla en pr\u00e1ctica. Si confirman lo que ya han adelantado, las implicaciones son enormes: menos memoria para inferencia significa que los centros de datos pueden hacer lo mismo con mucho menos hardware\/memoria.<\/p>\n<p>El momento DeepSeek de Google. El descubrimiento ha hecho que algunos analistas califiquen esto como el \"momento DeepSeek\" de Google. Hace un a\u00f1o la startup china DeepSeek lanz\u00f3 un modelo de IA que compet\u00eda con los mejores pero que hab\u00eda costado mucho menos desarrollar. Eso sacudi\u00f3 la industria, y ahora volvemos a un logro t\u00e9cnico que apunta a lo mismo. En IA hacer lo mismo con menos es crucial, dado los ingentes recursos que necesita esta tecnolog\u00eda. Hay quienes ya han hecho pruebas preliminares con TurboQuant y han confirmado que efectivamente el m\u00e9todo funciona.<br \/>\nMicron, Samsung y SK Hynix lo pagan caro. El impacto de esta t\u00e9cnica puede ser enorme, y eso ya se ha empezado a notar en las valoraciones de las acciones en bolsa de los fabricantes de memorias DRAM y HBM. Empresas como Micron, Samsung, SK Hynix, SanDisk o Kioxia cayeron de forma notable la semana pasada desde sus recientes m\u00e1ximos. El 18 de marzo rondaba los 471 d\u00f3lares, y hoy sus acciones est\u00e1n a 357 d\u00f3lares, lo que supone una asombrosa ca\u00edda del 24,2%. Lo mismo ha pasado con el resto de fabricantes, que ya \u00a0estaban cayendo desde esa fecha, pero que se han acelerado en esa ca\u00edda con el lanzamiento de TurboQuant.<\/p>\n<p>Pero. La t\u00e9cnica se puede aplicar te\u00f3ricamente solo a la fase de inferencia, pero la fase de entrenamiento de modelos de IA no se ve afectada por esta t\u00e9cnica de compresi\u00f3n. As\u00ed pues, durante la fase de entrenamiento se seguir\u00e1n necesitando cantidades ingentes de memoria. Adem\u00e1s tendremos que esperar a que las empresas de IA efectivamente comiencen a aplicar dicho sistema si se confirma que funciona, y ser\u00e1 entonces cuando podamos ver el impacto real. Te\u00f3ricamente esto dar\u00e1 mucho margen de maniobra a las grandes tecnol\u00f3gicas, que podr\u00e1n reducir a\u00fan m\u00e1s los precios por tokens, pero est\u00e1 por ver si lo hacen.<\/p>\n<p>Las memorias RAM bajan de precio. El impacto de TurboQuant ha sido tambi\u00e9n claro en los precios de los m\u00f3dulos de memoria, que han bajado de forma apreciable en precio. Por ejemplo, los m\u00f3dulos Corsair Vengeance DDR5 32 GB 6000MHz (2x16GB) estaban a 489,59 euros en Amazon hasta hace unas semanas seg\u00fan CamelCamelCamel, pero ahora mismo est\u00e1n a 339,89 euros, una rebaja notable. Es cierto que no todos los componentes est\u00e1n bajando igual, pero efectivamente s\u00ed hay casos en los que las rebajas parecen estar produci\u00e9ndose.<\/p>\n<p>En Xataka |\u00a0La crisis de la RAM se est\u00e1 llevando por delante todos los planes de Valve con su Steam Machine<\/p>\n<p>                 &#8211;  La noticia<\/p>\n<p>        Google ha logrado que la IA consuma hasta seis veces menos memoria. Micron, Samsung y SK Hynix lo est\u00e1n pagando muy caro <\/p>\n<p>      fue publicada originalmente en<\/p>\n<p>        Xataka <\/p>\n<p>             por<br \/>\n        Javier Pastor<\/p>\n<p>      .\u00a0\u00a0\u00a0<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Llevamos meses envueltos en la crisis de la memoria, pero quiz\u00e1s haya una salida. La semana pasada Google Research public\u00f3 un estudio en el que desvelaba una t\u00e9cnica llamada TurboQuant. Se trata de un algoritmo de compresi\u00f3n capaz de comprimir la memoria de trabajo de los modelos de IA hasta seis veces sin p\u00e9rdida apreciable [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":8874,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"amp_status":"","footnotes":""},"categories":[6],"tags":[],"class_list":["post-8873","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-ciencia-y-tecnologia"],"_links":{"self":[{"href":"https:\/\/ermdigital.com\/index.php\/wp-json\/wp\/v2\/posts\/8873","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/ermdigital.com\/index.php\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/ermdigital.com\/index.php\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/ermdigital.com\/index.php\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/ermdigital.com\/index.php\/wp-json\/wp\/v2\/comments?post=8873"}],"version-history":[{"count":0,"href":"https:\/\/ermdigital.com\/index.php\/wp-json\/wp\/v2\/posts\/8873\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/ermdigital.com\/index.php\/wp-json\/wp\/v2\/media\/8874"}],"wp:attachment":[{"href":"https:\/\/ermdigital.com\/index.php\/wp-json\/wp\/v2\/media?parent=8873"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/ermdigital.com\/index.php\/wp-json\/wp\/v2\/categories?post=8873"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/ermdigital.com\/index.php\/wp-json\/wp\/v2\/tags?post=8873"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}