{"id":23104,"date":"2026-04-24T04:31:52","date_gmt":"2026-04-24T08:31:52","guid":{"rendered":"https:\/\/ermdigital.com\/index.php\/2026\/04\/24\/deepseek-acaba-de-lanzar-un-modelo-que-compite-con-opus-4-6-cuesta-siete-veces-menos-y-funciona-en-chips-chinos\/"},"modified":"2026-04-24T04:31:52","modified_gmt":"2026-04-24T08:31:52","slug":"deepseek-acaba-de-lanzar-un-modelo-que-compite-con-opus-4-6-cuesta-siete-veces-menos-y-funciona-en-chips-chinos","status":"publish","type":"post","link":"https:\/\/ermdigital.com\/index.php\/2026\/04\/24\/deepseek-acaba-de-lanzar-un-modelo-que-compite-con-opus-4-6-cuesta-siete-veces-menos-y-funciona-en-chips-chinos\/","title":{"rendered":"DeepSeek acaba de lanzar un modelo que compite con Opus 4.6. Cuesta siete veces menos y funciona en chips chinos"},"content":{"rendered":"<p>\n      <img decoding=\"async\" src=\"https:\/\/i.blogs.es\/6e97ea\/deepseek\/1024_2000.jpeg\" alt=\"DeepSeek acaba de lanzar un modelo que compite con Opus 4.6. Cuesta siete veces menos y funciona en chips chinos \">\n    <\/p>\n<p>Han pasado <a rel=\"noopener, noreferrer\" href=\"https:\/\/x.com\/victor207755822\/status\/2047518146689732858\">484 d\u00edas<\/a> desde aquel \"<a class=\"text-outboundlink\" href=\"https:\/\/www.xataka.com\/robotica-e-ia\/deepseek-r1-no-es-solo-otro-modelo-de-ia-es-la-mayor-amenaza-existencial-que-ha-enfrentado-silicon-valley\" data-vars-post-title=\" DeepSeek R1 no es solo otro modelo de IA: es la mayor amenaza existencial que ha enfrentado Silicon Valley\" data-vars-post-url=\"https:\/\/www.xataka.com\/robotica-e-ia\/deepseek-r1-no-es-solo-otro-modelo-de-ia-es-la-mayor-amenaza-existencial-que-ha-enfrentado-silicon-valley\">momento DeepSeek<\/a>\", pero <a class=\"text-outboundlink\" href=\"https:\/\/www.xataka.com\/robotica-e-ia\/deepseek-ha-lanzado-su-nuevo-modelo-razonador-gratis-supera-a-gpt-5\" data-vars-post-title=\"El nuevo modelo de DeepSeek razona, es gratis... y supera a GPT-5\" data-vars-post-url=\"https:\/\/www.xataka.com\/robotica-e-ia\/deepseek-ha-lanzado-su-nuevo-modelo-razonador-gratis-supera-a-gpt-5\">la espera<\/a> parece haber valido la pena, porque tenemos con nosotros el nuevo DeepSeek V4. Estamos ante un modelo de pesos abiertos absolutamente gigantesco y que de nuevo promete resquebrajar los cimientos de los modelos fundacionales propietarios de Anthropic, OpenAI o Google. Esto se mueve, se\u00f1ores.<\/p>\n<p><!-- BREAK 1 --><\/p>\n<p><strong>Gigantesco y abierto<\/strong>. DeepSeek v4 es un modelo de pesos abiertos (\"Open Source\") y viene en dos versiones. La primera es la Pro, con 1,6 billones de par\u00e1mentros (1.6T), de los cuales tiene 49.000 millones activos. La \u00a0segunda es la Flash, con 248.000 millones de par\u00e1metros (248B, enorme para un modelo \"Flash\") de los cuales 13.000 est\u00e1n activos.\u00a0<\/p>\n<div class=\"article-asset article-asset-normal article-asset-center\">\n<div class=\"desvio-container\">\n<div class=\"desvio\">\n<div class=\"desvio-figure js-desvio-figure\">\n    <a href=\"https:\/\/www.xataka.com\/basics\/guia-deepseek-36-funciones-cosas-que-puedes-hacer-gratis-esta-inteligencia-artificial\" class=\"pivot-outboundlink\" data-vars-post-title=\"Gu\u00eda DeepSeek: 36 funciones y cosas que puedes hacer gratis con esta inteligencia artificial\"><br \/>\n     <img loading=\"lazy\" decoding=\"async\" alt=\"Gu\u00eda DeepSeek: 36 funciones y cosas que puedes hacer gratis con esta inteligencia artificial\" width=\"375\" height=\"142\" src=\"https:\/\/i.blogs.es\/8f8c3e\/deepseek\/375_142.jpeg\"><br \/>\n    <\/a>\n   <\/div>\n<div class=\"desvio-summary\">\n<div class=\"desvio-taxonomy js-desvio-taxonomy\">\n     <a href=\"https:\/\/www.xataka.com\/basics\/guia-deepseek-36-funciones-cosas-que-puedes-hacer-gratis-esta-inteligencia-artificial\" class=\"desvio-taxonomy-anchor pivot-outboundlink\" data-vars-post-title=\"Gu\u00eda DeepSeek: 36 funciones y cosas que puedes hacer gratis con esta inteligencia artificial\">En Xataka<\/a>\n    <\/div>\n<p>    <a href=\"https:\/\/www.xataka.com\/basics\/guia-deepseek-36-funciones-cosas-que-puedes-hacer-gratis-esta-inteligencia-artificial\" class=\"desvio-title js-desvio-title pivot-outboundlink\" data-vars-post-title=\"Gu\u00eda DeepSeek: 36 funciones y cosas que puedes hacer gratis con esta inteligencia artificial\">Gu\u00eda DeepSeek: 36 funciones y cosas que puedes hacer gratis con esta inteligencia artificial<\/a>\n   <\/div>\n<\/p><\/div>\n<\/p><\/div>\n<\/div>\n<p><strong>M\u00e1s eficiente que nunca<\/strong>. Ambas versiones <a rel=\"noopener, noreferrer\" href=\"https:\/\/huggingface.co\/deepseek-ai\/DeepSeek-V4-Pro\">hacen uso<\/a> de una arquitectura Mixture-of-Experts (MoE), lo que significa que solo una fracci\u00f3n de los par\u00e1metros se activa en cada inferencia. Eso permite reducir el coste computacional de forma notable. Ambas versiones soportan una ventan de contexto de un mill\u00f3n de tokens \u2014para meter novelas y novelas de golpe como entrada\u2014 cuando en v3 era de 128.000 tokens. Adem\u00e1s este modelo es mucho m\u00e1s eficiente que su predecesor en c\u00f3mputo por token: requiere tan solo el 27% de las operaciones por token \u00a0y el 10% de la cach\u00e9 KV con respecto a DeepSeek v3.2.\u00a0\u00a0<\/p>\n<p><!-- BREAK 2 --><\/p>\n<p><strong>Los benchmarks prometen<\/strong>. Las pruebas internas de DeepSeek revelan que v4 Pro-Max (el mejor modelo con la mayor capacidad de razonamiento) supera o est\u00e1 al nivel de Claude Opus 4.6 Max, GPT-5.4 xHigh, Gemini 3.1 Pro High, Kimi K2.6 y GLM 5.1. Los resultados, eso s\u00ed, no est\u00e1n verificados de forma independiente, lo que hace que debamos tomarlos con cautela.\u00a0<\/p>\n<p><!-- BREAK 3 --><\/p>\n<div class=\"article-asset-image article-asset-normal article-asset-center\">\n<div class=\"asset-content\">\n<p>   <img decoding=\"async\" alt=\"Captura De Pantalla 2026 04 24 A Las 9 44 13\" class=\"centro_sinmarco\" src=\"https:\/\/i.blogs.es\/b01a51\/captura-de-pantalla-2026-04-24-a-las-9.44.13\/450_1000.jpeg\"><\/p><\/div>\n<\/div>\n<p>Los n\u00fameros aun as\u00ed son llamativos: en LiveCodeBench, una prueba de programaci\u00f3n, DeepSeek v4-Pro-Max alcanza el 93,5% de puntuaci\u00f3n frente al 88,8 de Opus 4.6 y el 91,7% de Gemini 3.1 Pro. En otras pruebas hay m\u00e1s variabilidad, pero al menos sobre el papel DeepSeek v4 Pro parece tan bueno como Opus 4.7, que hasta ahora era referente absoluto.<\/p>\n<p><!-- BREAK 4 --><\/p>\n<div class=\"article-asset-image article-asset-small article-asset-center\">\n<div class=\"asset-content\">\n<p>   <img decoding=\"async\" alt=\"Captura De Pantalla 2026 04 24 A Las 9 46 45\" class=\"centro_sinmarco\" src=\"https:\/\/i.blogs.es\/97b1cb\/captura-de-pantalla-2026-04-24-a-las-9.46.45\/450_1000.jpeg\"><\/p><\/div>\n<\/div>\n<p><strong>Mucho m\u00e1s barato<\/strong>. Pero es que como ya pas\u00f3 con su versi\u00f3n anterior, la diferencia en precio con esos modelos de empresas de EEUU es asombrosa. Como <a rel=\"noopener, noreferrer\" href=\"https:\/\/simonwillison.net\/2026\/Apr\/24\/deepseek-v4\/\">apunta<\/a> el analista Simon Willinson, los <a rel=\"noopener, noreferrer\" href=\"https:\/\/api-docs.deepseek.com\/quick_start\/pricing\">precios oficiales<\/a> de DeepSeek v4 Pro son de 1,74 d\u00f3lares por millon de tokens de entrada y de 3,48 d\u00f3lares por mill\u00f3n de tokens de salida, hasta casi siete veces menos que los de Opus 4.7 y haata casi 9 veces menos que los del nuevo GPT-5.5. Con DeepSeek v4 Flash el coste es de 0,14\/0,28 d\u00f3lares por mill\u00f3n de tokens de entrada\/salida, cuando GPT-5.4 Mini cuesta hasta 16 veces m\u00e1s. La conclusi\u00f3n es evidente: si realmente cumple como dice cumplir, el precio es un absoluto chollo. Ese es precisamente el reto: que la experiencia real confirme lo que dicen los benchmarks.<\/p>\n<p><!-- BREAK 5 --><\/p>\n<p><strong>El misterio del hardware<\/strong>. En DeepSeek no han revelado qu\u00e9 hardware se ha usado para entrenar esta versi\u00f3n de su modelo fundacional. En el pasado s\u00ed admitieron que hab\u00edan usado las H800 de NVIDIA. Lo que <a rel=\"noopener, noreferrer\" href=\"https:\/\/www.reuters.com\/technology\/chinas-deepseek-returns-with-new-model-year-after-viral-rise-2026-04-24\/\">s\u00ed se sabe<\/a> es que el modelo se ha desarrollado para poder correr tanto en los chips de NVIDIA como en los Ascend de Huawei. Esta \u00faltima <a rel=\"noopener, noreferrer\" href=\"https:\/\/www.reuters.com\/business\/media-telecom\/huawei-ascend-supernode-support-deepseek-v4-2026-04-24\/\">ha confirmado<\/a> en Baidu que sus clusters Ascend Supernode basados en los Ascend 950 soportar\u00e1n por completo las versiones de DeepSeek v4.\u00a0<\/p>\n<p><strong>El soporte de Huawei es una noticia \"horrible\" para EEUU<\/strong>. En The Information <a rel=\"noopener, noreferrer\" href=\"https:\/\/www.theinformation.com\/articles\/deepseeks-new-ai-model-will-victory-huawei\">ya comentaron<\/a> que una de las razones del \"retraso\" en la aparici\u00f3n de este modelo fue adaptarlo para que funcionara sin problemas con los chips de Huawei. Ese soporte es <a rel=\"noopener, noreferrer\" href=\"https:\/\/www.scmp.com\/tech\/article\/3350460\/nvidias-jensen-huang-warns-huawei-chips-deepseek-ai-models-would-be-horrible-us\">seg\u00fan Jensen Huang<\/a> una noticia \"horrible\" para EEUU, porque supone que la dependencia de chips NVIDIA ya no existe o al menos se reduce a la m\u00ednima expresi\u00f3n.<\/p>\n<p><!-- BREAK 6 --><\/p>\n<p><strong>Pero<\/strong>. El lanzamiento llega en un momento complicado para la empresa. Guo Daya, uno de los m\u00e1ximos responsables de los modelos v1 y v3, ha fichado por ByteDance para trabajar en agentes de IA. Luo Fuli, que lider\u00f3 el desarroll\u00f3 de la v2, se uni\u00f3 a Xiaomi el a\u00f1o pasado. Este lanzamiento coincide adem\u00e1s con la b\u00fasqueda de financiaci\u00f3n externa por primera vez en DeepSeek. Se espera que levanten unos 300 millones de d\u00f3lares y obtengan una valoraci\u00f3n de unos 20.000 millones <a rel=\"noopener, noreferrer\" href=\"https:\/\/www.wsj.com\/tech\/ai\/chinas-deepseek-launches-long-awaited-ai-model-066a7d6e\">seg\u00fan The Wall Street Journal<\/a>.<\/p>\n<p><strong>Del efecto sorpresa al efecto continuidad<\/strong>. El lanzamiento de DeepSeek R1 en enero de 2025 fue sorprendente porque demostr\u00f3 que China pod\u00eda entrenar modelos competitivos a una fracci\u00f3n del coste de los modelos occidentales. Con DeepSeek v4 ese efecto sorpresa desaparece para dar paso al efecto continuidad. Este modelo parece mantener precisamente lo que hizo famoso al modelo previo: potencia extraordinaria a un coste baj\u00edsimo.<\/p>\n<p><!-- BREAK 7 --><\/p>\n<div class=\"article-asset-video article-asset-normal\">\n<div class=\"asset-content\">\n<div class=\"base-asset-video\">\n<div class=\"js-dailymotion\"><\/div>\n<\/p><\/div>\n<\/p><\/div>\n<\/div>\n<p><strong>Malas noticias para Anthropic<\/strong>. Esos precios tan bajos son una noticia terrible para Anthropic, que en las \u00faltimas semanas se ha visto obligada a ejecutar <a class=\"text-outboundlink\" href=\"https:\/\/www.xataka.com\/robotica-e-ia\/anthropic-no-ha-subido-precio-claude-ha-inventado-algo-mejor-inflacion-tokens\" data-vars-post-title=\"Anthropic no ha subido el precio de Claude. Ha inventado algo mejor: la inflaci\u00f3n de tokens\" data-vars-post-url=\"https:\/\/www.xataka.com\/robotica-e-ia\/anthropic-no-ha-subido-precio-claude-ha-inventado-algo-mejor-inflacion-tokens\">una especie de \"reduflaci\u00f3n\" de sus nuevos modelos<\/a>, que no son m\u00e1s caros pero que consumen muchos m\u00e1s tokens. Habr\u00e1 que comprobar si DeepSeek v4 Pro es tan bueno como promete la compa\u00f1\u00eda, pero si lo es tedremos ante nosotros otro \"momento DeepSeek\". Quiz\u00e1 no tan notable como el del a\u00f1o pasado, pero igualmente relevante.<\/p>\n<p><!-- BREAK 8 --><\/p>\n<p>En Xataka | <a class=\"text-outboundlink\" href=\"https:\/\/www.xataka.com\/aplicaciones\/deepseek-se-prometia-felices-como-gran-ia-china-no-contaba-pequeno-detalle-kimi\" data-vars-post-title=\"DeepSeek se las promet\u00eda felices como la gran IA china. No contaba con un peque\u00f1o detalle: Kimi \" data-vars-post-url=\"https:\/\/www.xataka.com\/aplicaciones\/deepseek-se-prometia-felices-como-gran-ia-china-no-contaba-pequeno-detalle-kimi\">DeepSeek se las promet\u00eda felices como la gran IA china. No contaba con un peque\u00f1o detalle: Kimi<\/a><\/p>\n<p> &#8211; <br \/> La noticia<br \/>\n      <a href=\"https:\/\/www.xataka.com\/robotica-e-ia\/deepseek-acaba-lanzar-modelo-que-compite-opus-4-6-cuesta-siete-veces-funciona-chips-chinos?utm_source=feedburner&amp;utm_medium=feed&amp;utm_campaign=24_Apr_2026\"><br \/>\n       <em> DeepSeek acaba de lanzar un modelo que compite con Opus 4.6. Cuesta siete veces menos y funciona en chips chinos  <\/em><br \/>\n      <\/a><br \/>\n      fue publicada originalmente en<br \/>\n      <a href=\"https:\/\/www.xataka.com\/?utm_source=feedburner&amp;utm_medium=feed&amp;utm_campaign=24_Apr_2026\"><br \/>\n       <strong> Xataka <\/strong><br \/>\n      <\/a><br \/>\n             por<br \/>\n               <a href=\"https:\/\/www.xataka.com\/autor\/javier-pastor?utm_source=feedburner&amp;utm_medium=feed&amp;utm_campaign=24_Apr_2026\"><br \/>\n        Javier Pastor<br \/>\n        <\/a><br \/>\n             . <\/p>\n<p>\u00a0Han pasado 484 d\u00edas desde aquel \"momento DeepSeek\", pero la espera parece haber valido la pena, porque tenemos con nosotros el nuevo DeepSeek V4. Estamos ante un modelo de pesos abiertos absolutamente gigantesco y que de nuevo promete resquebrajar los cimientos de los modelos fundacionales propietarios de Anthropic, OpenAI o Google. Esto se mueve, se\u00f1ores.<br \/>\nGigantesco y abierto. DeepSeek v4 es un modelo de pesos abiertos (\"Open Source\") y viene en dos versiones. La primera es la Pro, con 1,6 billones de par\u00e1mentros (1.6T), de los cuales tiene 49.000 millones activos. La \u00a0segunda es la Flash, con 248.000 millones de par\u00e1metros (248B, enorme para un modelo \"Flash\") de los cuales 13.000 est\u00e1n activos.\u00a0<\/p>\n<p>     En Xataka<\/p>\n<p>    Gu\u00eda DeepSeek: 36 funciones y cosas que puedes hacer gratis con esta inteligencia artificial<\/p>\n<p>M\u00e1s eficiente que nunca. Ambas versiones hacen uso de una arquitectura Mixture-of-Experts (MoE), lo que significa que solo una fracci\u00f3n de los par\u00e1metros se activa en cada inferencia. Eso permite reducir el coste computacional de forma notable. Ambas versiones soportan una ventan de contexto de un mill\u00f3n de tokens \u2014para meter novelas y novelas de golpe como entrada\u2014 cuando en v3 era de 128.000 tokens. Adem\u00e1s este modelo es mucho m\u00e1s eficiente que su predecesor en c\u00f3mputo por token: requiere tan solo el 27% de las operaciones por token \u00a0y el 10% de la cach\u00e9 KV con respecto a DeepSeek v3.2.\u00a0\u00a0<\/p>\n<p>Los benchmarks prometen. Las pruebas internas de DeepSeek revelan que v4 Pro-Max (el mejor modelo con la mayor capacidad de razonamiento) supera o est\u00e1 al nivel de Claude Opus 4.6 Max, GPT-5.4 xHigh, Gemini 3.1 Pro High, Kimi K2.6 y GLM 5.1. Los resultados, eso s\u00ed, no est\u00e1n verificados de forma independiente, lo que hace que debamos tomarlos con cautela.\u00a0<\/p>\n<p>Los n\u00fameros aun as\u00ed son llamativos: en LiveCodeBench, una prueba de programaci\u00f3n, DeepSeek v4-Pro-Max alcanza el 93,5% de puntuaci\u00f3n frente al 88,8 de Opus 4.6 y el 91,7% de Gemini 3.1 Pro. En otras pruebas hay m\u00e1s variabilidad, pero al menos sobre el papel DeepSeek v4 Pro parece tan bueno como Opus 4.7, que hasta ahora era referente absoluto.<\/p>\n<p>Mucho m\u00e1s barato. Pero es que como ya pas\u00f3 con su versi\u00f3n anterior, la diferencia en precio con esos modelos de empresas de EEUU es asombrosa. Como apunta el analista Simon Willinson, los precios oficiales de DeepSeek v4 Pro son de 1,74 d\u00f3lares por millon de tokens de entrada y de 3,48 d\u00f3lares por mill\u00f3n de tokens de salida, hasta casi siete veces menos que los de Opus 4.7 y haata casi 9 veces menos que los del nuevo GPT-5.5. Con DeepSeek v4 Flash el coste es de 0,14\/0,28 d\u00f3lares por mill\u00f3n de tokens de entrada\/salida, cuando GPT-5.4 Mini cuesta hasta 16 veces m\u00e1s. La conclusi\u00f3n es evidente: si realmente cumple como dice cumplir, el precio es un absoluto chollo. Ese es precisamente el reto: que la experiencia real confirme lo que dicen los benchmarks.<br \/>\nEl misterio del hardware. En DeepSeek no han revelado qu\u00e9 hardware se ha usado para entrenar esta versi\u00f3n de su modelo fundacional. En el pasado s\u00ed admitieron que hab\u00edan usado las H800 de NVIDIA. Lo que s\u00ed se sabe es que el modelo se ha desarrollado para poder correr tanto en los chips de NVIDIA como en los Ascend de Huawei. Esta \u00faltima ha confirmado en Baidu que sus clusters Ascend Supernode basados en los Ascend 950 soportar\u00e1n por completo las versiones de DeepSeek v4.\u00a0<br \/>\nEl soporte de Huawei es una noticia \"horrible\" para EEUU. En The Information ya comentaron que una de las razones del \"retraso\" en la aparici\u00f3n de este modelo fue adaptarlo para que funcionara sin problemas con los chips de Huawei. Ese soporte es seg\u00fan Jensen Huang una noticia \"horrible\" para EEUU, porque supone que la dependencia de chips NVIDIA ya no existe o al menos se reduce a la m\u00ednima expresi\u00f3n.<br \/>\nPero. El lanzamiento llega en un momento complicado para la empresa. Guo Daya, uno de los m\u00e1ximos responsables de los modelos v1 y v3, ha fichado por ByteDance para trabajar en agentes de IA. Luo Fuli, que lider\u00f3 el desarroll\u00f3 de la v2, se uni\u00f3 a Xiaomi el a\u00f1o pasado. Este lanzamiento coincide adem\u00e1s con la b\u00fasqueda de financiaci\u00f3n externa por primera vez en DeepSeek. Se espera que levanten unos 300 millones de d\u00f3lares y obtengan una valoraci\u00f3n de unos 20.000 millones seg\u00fan The Wall Street Journal.<br \/>\nDel efecto sorpresa al efecto continuidad. El lanzamiento de DeepSeek R1 en enero de 2025 fue sorprendente porque demostr\u00f3 que China pod\u00eda entrenar modelos competitivos a una fracci\u00f3n del coste de los modelos occidentales. Con DeepSeek v4 ese efecto sorpresa desaparece para dar paso al efecto continuidad. Este modelo parece mantener precisamente lo que hizo famoso al modelo previo: potencia extraordinaria a un coste baj\u00edsimo.<\/p>\n<p>Malas noticias para Anthropic. Esos precios tan bajos son una noticia terrible para Anthropic, que en las \u00faltimas semanas se ha visto obligada a ejecutar una especie de \"reduflaci\u00f3n\" de sus nuevos modelos, que no son m\u00e1s caros pero que consumen muchos m\u00e1s tokens. Habr\u00e1 que comprobar si DeepSeek v4 Pro es tan bueno como promete la compa\u00f1\u00eda, pero si lo es tedremos ante nosotros otro \"momento DeepSeek\". Quiz\u00e1 no tan notable como el del a\u00f1o pasado, pero igualmente relevante.<\/p>\n<p>En Xataka | DeepSeek se las promet\u00eda felices como la gran IA china. No contaba con un peque\u00f1o detalle: Kimi<\/p>\n<p>                 &#8211;  La noticia<\/p>\n<p>        DeepSeek acaba de lanzar un modelo que compite con Opus 4.6. Cuesta siete veces menos y funciona en chips chinos  <\/p>\n<p>      fue publicada originalmente en<\/p>\n<p>        Xataka <\/p>\n<p>             por <\/p>\n<p>        Javier Pastor<\/p>\n<p>             .\u00a0\u00a0\u00a0<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Han pasado 484 d\u00edas desde aquel \"momento DeepSeek\", pero la espera parece haber valido la pena, porque tenemos con nosotros el nuevo DeepSeek V4. Estamos ante un modelo de pesos abiertos absolutamente gigantesco y que de nuevo promete resquebrajar los cimientos de los modelos fundacionales propietarios de Anthropic, OpenAI o Google. Esto se mueve, se\u00f1ores. [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":23105,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"amp_status":"","footnotes":""},"categories":[6],"tags":[],"class_list":["post-23104","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-ciencia-y-tecnologia"],"_links":{"self":[{"href":"https:\/\/ermdigital.com\/index.php\/wp-json\/wp\/v2\/posts\/23104","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/ermdigital.com\/index.php\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/ermdigital.com\/index.php\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/ermdigital.com\/index.php\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/ermdigital.com\/index.php\/wp-json\/wp\/v2\/comments?post=23104"}],"version-history":[{"count":0,"href":"https:\/\/ermdigital.com\/index.php\/wp-json\/wp\/v2\/posts\/23104\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/ermdigital.com\/index.php\/wp-json\/wp\/v2\/media\/23105"}],"wp:attachment":[{"href":"https:\/\/ermdigital.com\/index.php\/wp-json\/wp\/v2\/media?parent=23104"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/ermdigital.com\/index.php\/wp-json\/wp\/v2\/categories?post=23104"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/ermdigital.com\/index.php\/wp-json\/wp\/v2\/tags?post=23104"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}