{"id":20492,"date":"2026-04-20T07:30:19","date_gmt":"2026-04-20T11:30:19","guid":{"rendered":"https:\/\/ermdigital.com\/index.php\/2026\/04\/20\/anthropic-no-ha-subido-el-precio-de-claude-ha-inventado-algo-mejor-la-inflacion-de-tokens\/"},"modified":"2026-04-20T07:30:19","modified_gmt":"2026-04-20T11:30:19","slug":"anthropic-no-ha-subido-el-precio-de-claude-ha-inventado-algo-mejor-la-inflacion-de-tokens","status":"publish","type":"post","link":"https:\/\/ermdigital.com\/index.php\/2026\/04\/20\/anthropic-no-ha-subido-el-precio-de-claude-ha-inventado-algo-mejor-la-inflacion-de-tokens\/","title":{"rendered":"Anthropic no ha subido el precio de Claude. Ha inventado algo mejor: la inflaci\u00f3n de tokens"},"content":{"rendered":"<p>\n      <img decoding=\"async\" src=\"https:\/\/i.blogs.es\/481d84\/tokens\/1024_2000.jpeg\" alt=\"Anthropic no ha subido el precio de Claude. Ha inventado algo mejor: la inflaci\u00f3n de tokens\">\n    <\/p>\n<p>\"No os preocup\u00e9is, que cuesta lo mismo\". Ese fue el mensaje de Anthropic al <a rel=\"noopener, noreferrer\" href=\"https:\/\/www.anthropic.com\/news\/claude-opus-4-7\">anunciar el lanzamiento<\/a> de su nuevo modelo de IA, Claude Opus 4.7. En ese comunicado dejaron claro que \"el precio sigue siendo el mismo que el de Opus 4.6: 5 d\u00f3lares por mill\u00f3n de tokens de entrada y <a rel=\"noopener, noreferrer\" href=\"https:\/\/platform.claude.com\/docs\/en\/about-claude\/pricing\">25 d\u00f3lares por mill\u00f3n de tokens de salida<\/a>\". Hab\u00eda no obstante letra peque\u00f1a, porque el modelo es mejor pero para lograrlo razona m\u00e1s, y eso significa una cosa: m\u00e1s tokens. Y cu\u00e1ntos m\u00e1s tokens consumes, m\u00e1s sube la factura de la IA.<\/p>\n<p><!-- BREAK 1 --><\/p>\n<p><strong>\u00a0Anthropic ya avis\u00f3<\/strong>. Hay que destacar que en ese anuncio oficiial Anthropic no escondi\u00f3 los hechos. En uno de los p\u00e1rrafos explicaba claramente c\u00f3mo Opus 4.7 \"piensa m\u00e1s\" y eso tiene un impacto directo en el consumo de tokens (destacamos en negrita la diferencia):<\/p>\n<p><!-- BREAK 2 --><\/p>\n<blockquote><p>\"Opus 4.7 es una actualizaci\u00f3n directa de Opus 4.6, pero hay dos cambios que conviene tener en cuenta, ya que afectan al uso de tokens. En primer lugar, Opus 4.7 utiliza un tokenizador actualizado que mejora el procesamiento del texto por parte del modelo. Esto implica que la misma entrada <strong>puede generar m\u00e1s tokens (<\/strong><strong>aproximadamente entre 1,0 y 1,35 veces m\u00e1s<\/strong>, seg\u00fan el tipo de contenido). En segundo lugar, Opus 4.7 realiza un an\u00e1lisis m\u00e1s profundo en niveles de esfuerzo mayores, especialmente en las \u00faltimas fases de los escenarios con agentes. Esto mejora su fiabilidad en problemas complejos, pero tambi\u00e9n implica la generaci\u00f3n de m\u00e1s tokens de salida\".<\/p><\/blockquote>\n<p>O lo que es lo mismo: cuando responde, Opus 4.7 usa bastantes m\u00e1s tokens que su predecesor, y eso es importante porque los tokens de salida son mucho m\u00e1s caros que los de entrada. En el caso concreto de Opus 4.7, cinco veces m\u00e1s caros (5 d\u00f3lares frente a 25).<\/p>\n<div class=\"article-asset article-asset-normal article-asset-center\">\n<div class=\"desvio-container\">\n<div class=\"desvio\">\n<div class=\"desvio-figure js-desvio-figure\">\n    <a href=\"https:\/\/www.xataka.com\/robotica-e-ia\/economia-tokens-se-ha-roto-tarifas-planas-ia-para-programar-matematicamente-insostenibles\" class=\"pivot-outboundlink\" data-vars-post-title=\"La \u201ceconom\u00eda de los tokens\u201d se ha roto: las tarifas planas de IA para programar son matem\u00e1ticamente insostenibles \"><br \/>\n     <img loading=\"lazy\" decoding=\"async\" alt=\"La \u201ceconom\u00eda de los tokens\u201d se ha roto: las tarifas planas de IA para programar son matem\u00e1ticamente insostenibles \" width=\"375\" height=\"142\" src=\"https:\/\/i.blogs.es\/5cf6a7\/fotis-fotopoulos-lj9ky8pih3e-unsplash\/375_142.jpeg\"><br \/>\n    <\/a>\n   <\/div>\n<div class=\"desvio-summary\">\n<div class=\"desvio-taxonomy js-desvio-taxonomy\">\n     <a href=\"https:\/\/www.xataka.com\/robotica-e-ia\/economia-tokens-se-ha-roto-tarifas-planas-ia-para-programar-matematicamente-insostenibles\" class=\"desvio-taxonomy-anchor pivot-outboundlink\" data-vars-post-title=\"La \u201ceconom\u00eda de los tokens\u201d se ha roto: las tarifas planas de IA para programar son matem\u00e1ticamente insostenibles \">En Xataka<\/a>\n    <\/div>\n<p>    <a href=\"https:\/\/www.xataka.com\/robotica-e-ia\/economia-tokens-se-ha-roto-tarifas-planas-ia-para-programar-matematicamente-insostenibles\" class=\"desvio-title js-desvio-title pivot-outboundlink\" data-vars-post-title=\"La \u201ceconom\u00eda de los tokens\u201d se ha roto: las tarifas planas de IA para programar son matem\u00e1ticamente insostenibles \">La \u201ceconom\u00eda de los tokens\u201d se ha roto: las tarifas planas de IA para programar son matem\u00e1ticamente insostenibles <\/a>\n   <\/div>\n<\/p><\/div>\n<\/p><\/div>\n<\/div>\n<p><strong>Qu\u00e9 es un tokenizador y por qu\u00e9 importa<\/strong>. Los grandes modelos de lenguaje (LLM) no procesan texto directamente, sino que lo convierten en <a class=\"text-outboundlink\" href=\"https:\/\/www.xataka.com\/robotica-e-ia\/que-token-cuando-hablamos-ia-que-importante-que-gemini-admita-millon\" data-vars-post-title=\"Qu\u00e9 es un token cuando hablamos de IA y por qu\u00e9 es importante que Gemini admita un mill\u00f3n  \" data-vars-post-url=\"https:\/\/www.xataka.com\/robotica-e-ia\/que-token-cuando-hablamos-ia-que-importante-que-gemini-admita-millon\">unidades llamadas tokens<\/a>, que son fragmentos de palantas, s\u00edmbolos o caracteres. El tokenizador es el mecanismo que hace esa conversi\u00f3n. Anthropic ha decidido actualizar el tokenizador en Opus 4.7, argumentando que su nuevo sistema mejora c\u00f3mo se procesa el texto. La consecuencia directa: el prompt que antes generaba 1.000 tokens ahora genera hasta 1.350. Y como se factura por token, el coste efectivo sube aunque el precio por token se haya mantenido.<\/p>\n<p><!-- BREAK 3 --><\/p>\n<p><strong>Confirmado por terceros<\/strong>. Simon Willison, conocido analista y divulgador en este terreno, cre\u00f3 una herramienta para medir la diferencia de consumo de tokens con la API de Claude Opus 4.6 y 4.7. Cogi\u00f3 el 'system prompt' oficial de Opus 4.7 y lo pas\u00f3 \u00a0por ambos modelos:<\/p>\n<ul>\n<li>Con Opus 4.6 \u00a0gener\u00f3 5.039 tokens de salida<\/li>\n<li>Con Opus 4.7 gener\u00f3 7.335 tokens de salida<\/li>\n<\/ul>\n<p>Eso represnta un crecimiento de 1,46x tokens entre Opus 4.6 y Opus 4.7, mayor a\u00fan que el que indicaba Anthropic (1,35x). Para im\u00e1genes la diferencia es a\u00fan m\u00e1s extrema ya que el consumo de tokens es de hasta 3,01x. Aqu\u00ed hay una aclaraci\u00f3n importante, porque hay soporte para im\u00e1genes de hasta 3,75 Mp\u00edxeles y esa mayor resoluci\u00f3n hace que el consumo aumente de forma notable.\u00a0<\/p>\n<p><!-- BREAK 4 --><\/p>\n<div class=\"article-asset-image article-asset-normal article-asset-center\">\n<div class=\"asset-content\">\n                    <a rel=\"noopener, noreferrer\" href=\"https:\/\/x.com\/bllchmbrs\/status\/2046035591838716340\"><\/p>\n<p>    <img decoding=\"async\" alt=\"Captura De Pantalla 2026 04 20 A Las 11 35 18\" class=\"centro_sinmarco\" src=\"https:\/\/i.blogs.es\/3c0e82\/captura-de-pantalla-2026-04-20-a-las-11.35.18\/450_1000.jpeg\"><br \/>\n     <\/a><\/p><\/div>\n<\/div>\n<p>Bill Chambers, otro usuario de X, public\u00f3 otra herramienta llamada Tokenomics que tambi\u00e9n permite comparar el consumo de tokens entre ambos modelos con cualquier prompt. El ranking agregado de todos los usuarios que han probado esta herramienta demuestra que el aumento promedio es del 38,6%, muy en la l\u00ednea de lo que apunta Anthropic.<\/p>\n<p><!-- BREAK 5 --><\/p>\n<p><strong>Y adem\u00e1s piensa m\u00e1s<\/strong>. Como dec\u00edamos, este nuevo modelo aplica dos cambios en su forma de actuar. La primera es el citado tokenizador: \u00a0la misma entrada se convierte en m\u00e1s tokens de entrada. La segunda es el hecho de que ahora el modelo \"piensa m\u00e1s\" antes de responder, lo que implica un mayor consumo de tokens. Opus 4.7 llega con un nuevo nivel de \"esfuerzo\" llamado xhigh, situado entre high y max. Anthropic ha decidido que ahora el esfuerzo por defecto ser\u00e1 precisamente xhigh para todos los planes, as\u00ed que ambos mecanismos contribuyen a ese mayor consumo de tokens. Como indica la propia Anthropic,<\/p>\n<blockquote><p>\u00a0\"Opus 4.7 piensa m\u00e1s en niveles de esfuerzo alto, particularmente en turnos posteriores en configuraciones ag\u00e9nticas. Esto mejora su fiabilidad en problemas dif\u00edciles, pero s\u00ed significa que produce m\u00e1s tokens de salida\".\u00a0<\/p><\/blockquote>\n<p><strong>Cr\u00edticas en redes<\/strong>. La reacci\u00f3n de los usuarios ha sido clara y hay diversos ejemplos en redes como X o Reddit en los que dichos usuarios critican los cambios. En Reddit un hilo titulado '<a rel=\"noopener, noreferrer\" href=\"https:\/\/www.reddit.com\/r\/ClaudeAI\/comments\/1snhfzd\/claude_opus_47_is_a_serious_regression_not_an\/?share_id=Y8HN21YxA-9BGHGIDtg6B&amp;utm_medium=android_app&amp;utm_name=androidcss&amp;utm_source=share&amp;utm_term=10\">Opus 4.7 es una regresi\u00f3n seria, no una mejora<\/a>' tiene ya 3.200 votos y 800 comentarios que se resumen en que este nuevo modelo ignora instrucciones, <a rel=\"noopener, noreferrer\" href=\"https:\/\/www.reddit.com\/r\/claude\/comments\/1snf5t7\/opus_47_is_a_master_hallucinator\/\">alucina<\/a> y miente, <a rel=\"noopener, noreferrer\" href=\"https:\/\/x.com\/icanvardar\/status\/2044877227955745248\">es \"m\u00e1s tonto\"<\/a>, se ha vuelto demasiado complaciente o <a rel=\"noopener, noreferrer\" href=\"https:\/\/x.com\/localghost\/status\/2044902896970666387\">incluso perezoso<\/a>, y \"habla demasiado\", lo que tambi\u00e9n contribuye al coste de cada consulta.\u00a0<\/p>\n<p><!-- BREAK 6 --><\/p>\n<div class=\"article-asset-image article-asset-normal article-asset-center\">\n<div class=\"asset-content\">\n                    <a rel=\"noopener, noreferrer\" href=\"https:\/\/x.com\/Shpigford\/status\/2045145620814405705\"><\/p>\n<p>    <img decoding=\"async\" alt=\"Captura De Pantalla 2026 04 20 A Las 12 25 07\" class=\"centro_sinmarco\" src=\"https:\/\/i.blogs.es\/fa5f21\/captura-de-pantalla-2026-04-20-a-las-12.25.07\/450_1000.jpeg\"><br \/>\n     <\/a><\/p><\/div>\n<\/div>\n<p>Muchos se quejan de que los l\u00edmites de sus de pago Pro y Max se acaban m\u00e1s r\u00e1pido que antes debido a esos cambios. Algunos usuarios afirman que Opus 4.7 es la primera se\u00f1al de que Anthropic quiz\u00e1s <a rel=\"noopener, noreferrer\" href=\"https:\/\/x.com\/Shpigford\/status\/2045145620814405705\">haya ido demasiado deprisa<\/a> por primera vez a la hora de lanzar un nuevo modelo.<\/p>\n<p><!-- BREAK 7 --><\/p>\n<div class=\"article-asset-image article-asset-normal article-asset-center\">\n<div class=\"asset-content\">\n                    <a rel=\"noopener, noreferrer\" href=\"https:\/\/x.com\/bcherny\/status\/2044839936235553167\"><\/p>\n<p>    <img decoding=\"async\" alt=\"Captura De Pantalla 2026 04 20 A Las 12 28 04\" class=\"centro_sinmarco\" src=\"https:\/\/i.blogs.es\/8f6f5b\/captura-de-pantalla-2026-04-20-a-las-12.28.04\/450_1000.jpeg\"><br \/>\n     <\/a><\/p><\/div>\n<\/div>\n<p><strong>Anthropic reacciona<\/strong>. Las cr\u00edticas por el coste y el comportamiento del modelo han hecho que los responsables de Anthropic traten de aclarar las cosas. Borys Cherny reuiteaba un mensaje de la empresa en el cual <a rel=\"noopener, noreferrer\" href=\"https:\/\/x.com\/ClaudeDevs\/status\/2045206682830303358\">se hablaba<\/a> de c\u00f3mo el par\u00e1metro \"\/usage\" en Claude Code permit\u00eda mostrar en qu\u00e9 tipo de cosas se gasta nuestra API o plan de uso. Este mismo ingeniero, que es el m\u00e1ximo responsable del desarrollo del citado Claude Code, tambi\u00e9n indicaba que dado que su nuevo modelo ahora usa m\u00e1s tokens, en Anthropic <a rel=\"noopener, noreferrer\" href=\"https:\/\/x.com\/bcherny\/status\/2044839936235553167\">hab\u00edan incrementado las cuotas<\/a> de uso de los modelos, aunque sin dar detalles espec\u00edficos.<\/p>\n<p><!-- BREAK 8 --><\/p>\n<div class=\"article-asset-image article-asset-normal article-asset-center\">\n<div class=\"asset-content\">\n                    <a rel=\"noopener, noreferrer\" href=\"https:\/\/x.com\/GergelyOrosz\/status\/2044814640471810346\"><\/p>\n<p>    <img decoding=\"async\" alt=\"Captura De Pantalla 2026 04 20 A Las 13 21 07\" class=\"centro_sinmarco\" src=\"https:\/\/i.blogs.es\/eae975\/captura-de-pantalla-2026-04-20-a-las-13.21.07\/450_1000.jpeg\"><br \/>\n     <\/a><\/p><\/div>\n<\/div>\n<p><strong>El patr\u00f3n que se repite<\/strong>. Hace semanas la comunidad de usuarios ya <a rel=\"noopener, noreferrer\" href=\"https:\/\/www.reddit.com\/r\/ClaudeCode\/comments\/1s9tbv0\/absolutely_cannot_believe_the_regressions_in_opus\/\">se quej\u00f3<\/a> de que <a rel=\"noopener, noreferrer\" href=\"https:\/\/www.reddit.com\/r\/ClaudeCode\/comments\/1se2p9p\/46_regression_is_real\/\">notaba<\/a> una \"regresi\u00f3n\" en el comportamiento de Opus 4.6. Aunque es imposible verificarlo o validarlo, fueron muchos los usuarios que se quejaron en redes de c\u00f3mo el rendimiento del modelo <a rel=\"noopener, noreferrer\" href=\"https:\/\/www.reddit.com\/r\/ClaudeCode\/comments\/1sgzk0d\/is_it_me_or_opus_46_got_way_dumber_over_the_past\/\">hab\u00eda empeorado<\/a> en <a rel=\"noopener, noreferrer\" href=\"https:\/\/www.reddit.com\/r\/claude\/comments\/1s6tvbt\/claude_code_opus_46_became_dumb\/\">sus pruebas<\/a>. Ahora acaba de lanzar un modelo que promete ser mejor que el anterior, pero que acaba costando m\u00e1s usar si uno no tiene cuidado. Ambos sucesos dibujan un patr\u00f3n: el de que Anthropic est\u00e1 aumentando sus ingresos sin anunciar subidas de precio como tal.\u00a0<\/p>\n<p><!-- BREAK 9 --><\/p>\n<div class=\"article-asset-video article-asset-normal\">\n<div class=\"asset-content\">\n<div class=\"base-asset-video\">\n<div class=\"js-dailymotion\"><\/div>\n<\/p><\/div>\n<\/p><\/div>\n<\/div>\n<p><strong>Qu\u00e9 pueden hacer los usuarios<\/strong>. Aunque es cierto que Opus 4.7 consume m\u00e1s tokens por defecto, es posible hacer algunos ajustes para tratar de contener los costes. El par\u00e1metro de esfuerzo permite reducir ese ajuste de xhigh a high o incluso a medium para tareas que no requieran tanto razonamiento. Hay tambi\u00e9n nuevas formas de establecer \"<a rel=\"noopener, noreferrer\" href=\"https:\/\/platform.claude.com\/docs\/en\/build-with-claude\/task-budgets\">presupuestos de tareas<\/a>\" para limitar los tokens que se usan en ciertos procesos, y en las im\u00e1genes podemos reducir la resoluci\u00f3n de salida. Adem\u00e1s, Opus 4.6 sigue disponible por ahora, con lo que podemos optar por \u00e9l (o por Sonnet 4.6) si creemos que esta versi\u00f3n nos compensa. La otra alternativa, por supuesto, es utilizar otros modelos de IA que nos funcionen bien y sean m\u00e1s asequibles, tanto en la nube como locales.\u00a0<\/p>\n<p><!-- BREAK 10 --><\/p>\n<p>Xataka | <a class=\"text-outboundlink\" href=\"https:\/\/www.xataka.com\/robotica-e-ia\/anthropic-fue-dont-be-evil-ia-para-desarrolladores-ahora-esta-exprimiendo-a-todos\" data-vars-post-title=\"Anthropic fue el &quot;don't be evil&quot; de la IA para los desarrolladores. Ahora los est\u00e1 exprimiendo a todos \" data-vars-post-url=\"https:\/\/www.xataka.com\/robotica-e-ia\/anthropic-fue-dont-be-evil-ia-para-desarrolladores-ahora-esta-exprimiendo-a-todos\">Anthropic fue el \"don&#8217;t be evil\" de la IA para los desarrolladores. Ahora los est\u00e1 exprimiendo a todos<\/a><\/p>\n<p> &#8211; <br \/> La noticia<br \/>\n      <a href=\"https:\/\/www.xataka.com\/robotica-e-ia\/anthropic-no-ha-subido-precio-claude-ha-inventado-algo-mejor-inflacion-tokens?utm_source=feedburner&amp;utm_medium=feed&amp;utm_campaign=20_Apr_2026\"><br \/>\n       <em> Anthropic no ha subido el precio de Claude. Ha inventado algo mejor: la inflaci\u00f3n de tokens <\/em><br \/>\n      <\/a><br \/>\n      fue publicada originalmente en<br \/>\n      <a href=\"https:\/\/www.xataka.com\/?utm_source=feedburner&amp;utm_medium=feed&amp;utm_campaign=20_Apr_2026\"><br \/>\n       <strong> Xataka <\/strong><br \/>\n      <\/a><br \/>\n             por <a href=\"https:\/\/www.xataka.com\/autor\/javier-pastor?utm_source=feedburner&amp;utm_medium=feed&amp;utm_campaign=20_Apr_2026\"><br \/>\n        Javier Pastor<br \/>\n       <\/a><br \/>\n      . <\/p>\n<p>\u00a0\"No os preocup\u00e9is, que cuesta lo mismo\". Ese fue el mensaje de Anthropic al anunciar el lanzamiento de su nuevo modelo de IA, Claude Opus 4.7. En ese comunicado dejaron claro que \"el precio sigue siendo el mismo que el de Opus 4.6: 5 d\u00f3lares por mill\u00f3n de tokens de entrada y 25 d\u00f3lares por mill\u00f3n de tokens de salida\". Hab\u00eda no obstante letra peque\u00f1a, porque el modelo es mejor pero para lograrlo razona m\u00e1s, y eso significa una cosa: m\u00e1s tokens. Y cu\u00e1ntos m\u00e1s tokens consumes, m\u00e1s sube la factura de la IA.<\/p>\n<p>\u00a0Anthropic ya avis\u00f3. Hay que destacar que en ese anuncio oficiial Anthropic no escondi\u00f3 los hechos. En uno de los p\u00e1rrafos explicaba claramente c\u00f3mo Opus 4.7 \"piensa m\u00e1s\" y eso tiene un impacto directo en el consumo de tokens (destacamos en negrita la diferencia):<\/p>\n<p>\"Opus 4.7 es una actualizaci\u00f3n directa de Opus 4.6, pero hay dos cambios que conviene tener en cuenta, ya que afectan al uso de tokens. En primer lugar, Opus 4.7 utiliza un tokenizador actualizado que mejora el procesamiento del texto por parte del modelo. Esto implica que la misma entrada puede generar m\u00e1s tokens (aproximadamente entre 1,0 y 1,35 veces m\u00e1s, seg\u00fan el tipo de contenido). En segundo lugar, Opus 4.7 realiza un an\u00e1lisis m\u00e1s profundo en niveles de esfuerzo mayores, especialmente en las \u00faltimas fases de los escenarios con agentes. Esto mejora su fiabilidad en problemas complejos, pero tambi\u00e9n implica la generaci\u00f3n de m\u00e1s tokens de salida\".O lo que es lo mismo: cuando responde, Opus 4.7 usa bastantes m\u00e1s tokens que su predecesor, y eso es importante porque los tokens de salida son mucho m\u00e1s caros que los de entrada. En el caso concreto de Opus 4.7, cinco veces m\u00e1s caros (5 d\u00f3lares frente a 25).<\/p>\n<p>     En Xataka<\/p>\n<p>    La \u201ceconom\u00eda de los tokens\u201d se ha roto: las tarifas planas de IA para programar son matem\u00e1ticamente insostenibles <\/p>\n<p>Qu\u00e9 es un tokenizador y por qu\u00e9 importa. Los grandes modelos de lenguaje (LLM) no procesan texto directamente, sino que lo convierten en unidades llamadas tokens, que son fragmentos de palantas, s\u00edmbolos o caracteres. El tokenizador es el mecanismo que hace esa conversi\u00f3n. Anthropic ha decidido actualizar el tokenizador en Opus 4.7, argumentando que su nuevo sistema mejora c\u00f3mo se procesa el texto. La consecuencia directa: el prompt que antes generaba 1.000 tokens ahora genera hasta 1.350. Y como se factura por token, el coste efectivo sube aunque el precio por token se haya mantenido.<br \/>\nConfirmado por terceros. Simon Willison, conocido analista y divulgador en este terreno, cre\u00f3 una herramienta para medir la diferencia de consumo de tokens con la API de Claude Opus 4.6 y 4.7. Cogi\u00f3 el 'system prompt' oficial de Opus 4.7 y lo pas\u00f3 \u00a0por ambos modelos:<br \/>\nCon Opus 4.6 \u00a0gener\u00f3 5.039 tokens de salidaCon Opus 4.7 gener\u00f3 7.335 tokens de salida<br \/>\nEso represnta un crecimiento de 1,46x tokens entre Opus 4.6 y Opus 4.7, mayor a\u00fan que el que indicaba Anthropic (1,35x). Para im\u00e1genes la diferencia es a\u00fan m\u00e1s extrema ya que el consumo de tokens es de hasta 3,01x. Aqu\u00ed hay una aclaraci\u00f3n importante, porque hay soporte para im\u00e1genes de hasta 3,75 Mp\u00edxeles y esa mayor resoluci\u00f3n hace que el consumo aumente de forma notable.\u00a0<\/p>\n<p>Bill Chambers, otro usuario de X, public\u00f3 otra herramienta llamada Tokenomics que tambi\u00e9n permite comparar el consumo de tokens entre ambos modelos con cualquier prompt. El ranking agregado de todos los usuarios que han probado esta herramienta demuestra que el aumento promedio es del 38,6%, muy en la l\u00ednea de lo que apunta Anthropic.<br \/>\nY adem\u00e1s piensa m\u00e1s. Como dec\u00edamos, este nuevo modelo aplica dos cambios en su forma de actuar. La primera es el citado tokenizador: \u00a0la misma entrada se convierte en m\u00e1s tokens de entrada. La segunda es el hecho de que ahora el modelo \"piensa m\u00e1s\" antes de responder, lo que implica un mayor consumo de tokens. Opus 4.7 llega con un nuevo nivel de \"esfuerzo\" llamado xhigh, situado entre high y max. Anthropic ha decidido que ahora el esfuerzo por defecto ser\u00e1 precisamente xhigh para todos los planes, as\u00ed que ambos mecanismos contribuyen a ese mayor consumo de tokens. Como indica la propia Anthropic,<br \/>\n\u00a0\"Opus 4.7 piensa m\u00e1s en niveles de esfuerzo alto, particularmente en turnos posteriores en configuraciones ag\u00e9nticas. Esto mejora su fiabilidad en problemas dif\u00edciles, pero s\u00ed significa que produce m\u00e1s tokens de salida\".\u00a0<br \/>\nCr\u00edticas en redes. La reacci\u00f3n de los usuarios ha sido clara y hay diversos ejemplos en redes como X o Reddit en los que dichos usuarios critican los cambios. En Reddit un hilo titulado 'Opus 4.7 es una regresi\u00f3n seria, no una mejora' tiene ya 3.200 votos y 800 comentarios que se resumen en que este nuevo modelo ignora instrucciones, alucina y miente, es \"m\u00e1s tonto\", se ha vuelto demasiado complaciente o incluso perezoso, y \"habla demasiado\", lo que tambi\u00e9n contribuye al coste de cada consulta.\u00a0<\/p>\n<p>Muchos se quejan de que los l\u00edmites de sus de pago Pro y Max se acaban m\u00e1s r\u00e1pido que antes debido a esos cambios. Algunos usuarios afirman que Opus 4.7 es la primera se\u00f1al de que Anthropic quiz\u00e1s haya ido demasiado deprisa por primera vez a la hora de lanzar un nuevo modelo.<\/p>\n<p>Anthropic reacciona. Las cr\u00edticas por el coste y el comportamiento del modelo han hecho que los responsables de Anthropic traten de aclarar las cosas. Borys Cherny reuiteaba un mensaje de la empresa en el cual se hablaba de c\u00f3mo el par\u00e1metro \"\/usage\" en Claude Code permit\u00eda mostrar en qu\u00e9 tipo de cosas se gasta nuestra API o plan de uso. Este mismo ingeniero, que es el m\u00e1ximo responsable del desarrollo del citado Claude Code, tambi\u00e9n indicaba que dado que su nuevo modelo ahora usa m\u00e1s tokens, en Anthropic hab\u00edan incrementado las cuotas de uso de los modelos, aunque sin dar detalles espec\u00edficos.<\/p>\n<p>El patr\u00f3n que se repite. Hace semanas la comunidad de usuarios ya se quej\u00f3 de que notaba una \"regresi\u00f3n\" en el comportamiento de Opus 4.6. Aunque es imposible verificarlo o validarlo, fueron muchos los usuarios que se quejaron en redes de c\u00f3mo el rendimiento del modelo hab\u00eda empeorado en sus pruebas. Ahora acaba de lanzar un modelo que promete ser mejor que el anterior, pero que acaba costando m\u00e1s usar si uno no tiene cuidado. Ambos sucesos dibujan un patr\u00f3n: el de que Anthropic est\u00e1 aumentando sus ingresos sin anunciar subidas de precio como tal.\u00a0<\/p>\n<p>Qu\u00e9 pueden hacer los usuarios. Aunque es cierto que Opus 4.7 consume m\u00e1s tokens por defecto, es posible hacer algunos ajustes para tratar de contener los costes. El par\u00e1metro de esfuerzo permite reducir ese ajuste de xhigh a high o incluso a medium para tareas que no requieran tanto razonamiento. Hay tambi\u00e9n nuevas formas de establecer \"presupuestos de tareas\" para limitar los tokens que se usan en ciertos procesos, y en las im\u00e1genes podemos reducir la resoluci\u00f3n de salida. Adem\u00e1s, Opus 4.6 sigue disponible por ahora, con lo que podemos optar por \u00e9l (o por Sonnet 4.6) si creemos que esta versi\u00f3n nos compensa. La otra alternativa, por supuesto, es utilizar otros modelos de IA que nos funcionen bien y sean m\u00e1s asequibles, tanto en la nube como locales.\u00a0<br \/>\nXataka | Anthropic fue el \"don&#8217;t be evil\" de la IA para los desarrolladores. Ahora los est\u00e1 exprimiendo a todos<\/p>\n<p>                 &#8211;  La noticia<\/p>\n<p>        Anthropic no ha subido el precio de Claude. Ha inventado algo mejor: la inflaci\u00f3n de tokens <\/p>\n<p>      fue publicada originalmente en<\/p>\n<p>        Xataka <\/p>\n<p>             por<br \/>\n        Javier Pastor<\/p>\n<p>      .\u00a0\u00a0\u00a0<\/p>\n","protected":false},"excerpt":{"rendered":"<p>\"No os preocup\u00e9is, que cuesta lo mismo\". Ese fue el mensaje de Anthropic al anunciar el lanzamiento de su nuevo modelo de IA, Claude Opus 4.7. En ese comunicado dejaron claro que \"el precio sigue siendo el mismo que el de Opus 4.6: 5 d\u00f3lares por mill\u00f3n de tokens de entrada y 25 d\u00f3lares por [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":20493,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"amp_status":"","footnotes":""},"categories":[6],"tags":[],"class_list":["post-20492","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-ciencia-y-tecnologia"],"_links":{"self":[{"href":"https:\/\/ermdigital.com\/index.php\/wp-json\/wp\/v2\/posts\/20492","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/ermdigital.com\/index.php\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/ermdigital.com\/index.php\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/ermdigital.com\/index.php\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/ermdigital.com\/index.php\/wp-json\/wp\/v2\/comments?post=20492"}],"version-history":[{"count":0,"href":"https:\/\/ermdigital.com\/index.php\/wp-json\/wp\/v2\/posts\/20492\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/ermdigital.com\/index.php\/wp-json\/wp\/v2\/media\/20493"}],"wp:attachment":[{"href":"https:\/\/ermdigital.com\/index.php\/wp-json\/wp\/v2\/media?parent=20492"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/ermdigital.com\/index.php\/wp-json\/wp\/v2\/categories?post=20492"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/ermdigital.com\/index.php\/wp-json\/wp\/v2\/tags?post=20492"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}