{"id":18132,"date":"2026-04-15T10:30:33","date_gmt":"2026-04-15T14:30:33","guid":{"rendered":"https:\/\/ermdigital.com\/index.php\/2026\/04\/15\/anthropic-fue-el-dont-be-evil-de-la-ia-para-los-desarrolladores-ahora-los-esta-exprimiendo-a-todos\/"},"modified":"2026-04-15T10:30:33","modified_gmt":"2026-04-15T14:30:33","slug":"anthropic-fue-el-dont-be-evil-de-la-ia-para-los-desarrolladores-ahora-los-esta-exprimiendo-a-todos","status":"publish","type":"post","link":"https:\/\/ermdigital.com\/index.php\/2026\/04\/15\/anthropic-fue-el-dont-be-evil-de-la-ia-para-los-desarrolladores-ahora-los-esta-exprimiendo-a-todos\/","title":{"rendered":"Anthropic fue el \"don&#8217;t be evil\" de la IA para los desarrolladores. Ahora los est\u00e1 exprimiendo a todos"},"content":{"rendered":"<p>\n      <img decoding=\"async\" src=\"https:\/\/i.blogs.es\/4c8097\/anthropic2\/1024_2000.jpeg\" alt=\"Anthropic fue el &quot;don't be evil&quot; de la IA para los desarrolladores. Ahora los est\u00e1 exprimiendo a todos \">\n    <\/p>\n<p>Claude Code y Claude Opus 4.6 detonaron una era dorada para los desarrolladores, que se encontraron con un agente de IA y un modelo fant\u00e1sticos para su trabajo. De repente OpenAI ya no era la empresa de moda: lo era Anthropic, que <a class=\"text-outboundlink\" href=\"https:\/\/www.xataka.com\/robotica-e-ia\/anthropic-se-ha-convertido-apple-nuestra-era-openai-nuestra-microsoft-historia-amor-odio\" data-vars-post-title=\"Anthropic se ha convertido en la Apple de nuestra era y OpenAI en nuestra Microsoft: una historia de amor y odio \" data-vars-post-url=\"https:\/\/www.xataka.com\/robotica-e-ia\/anthropic-se-ha-convertido-apple-nuestra-era-openai-nuestra-microsoft-historia-amor-odio\">enamor\u00f3 a usuarios y desarrolladores<\/a> y se convirti\u00f3 <a class=\"text-outboundlink\" href=\"https:\/\/www.xataka.com\/robotica-e-ia\/anthropic-se-ha-convertido-nina-bonita-ia-se-ha-buscado-socio-para-garantizar-su-futuro-no-que-pensabamos\" data-vars-post-title=\"Anthropic se ha convertido en la ni\u00f1a bonita de la IA y se ha buscado un socio para garantizar su futuro. No es el que pens\u00e1bamos \" data-vars-post-url=\"https:\/\/www.xataka.com\/robotica-e-ia\/anthropic-se-ha-convertido-nina-bonita-ia-se-ha-buscado-socio-para-garantizar-su-futuro-no-que-pensabamos\">en la ni\u00f1a bonita de la IA<\/a>. Meses despu\u00e9s estamos viendo c\u00f3mo Anthropic est\u00e1 haciendo cambios que est\u00e1n siendo muy criticados y que apuntan a algo que ya hemos visto en repetidas ocasiones: las plataformas te conquistan e inevitablemente luego las plataformas te exprimen.<\/p>\n<p><!-- BREAK 1 --><\/p>\n<p><strong>El detonante<\/strong>. El 2 de abril de 2026, Stella Laurenzo, Senior Director en el grupo de IA de AMD, <a rel=\"noopener, noreferrer\" href=\"https:\/\/github.com\/anthropics\/claude-code\/issues\/42796\">public\u00f3 un texto<\/a> en el repositorio de GitHub de Claude Code titulado \"Claude Code es in\u00fatil para tareas de ingenier\u00eda complejas con las actualizaciones de febrero\". Esta directiva incluy\u00f3 un an\u00e1lisis meticuloso de casi 6.600 sesiones reales de Claude Code con cerca de 235.000 llamadas a herramientas y uns 18.000 bloques de razonamiento en cuatro proyectos distintos. Las conclusiones eran para ella obvias: el rendimiento de Claude Code y de Claude Opus 4.6 se hab\u00edan degradado.<\/p>\n<p><!-- BREAK 2 --><\/p>\n<div class=\"article-asset article-asset-normal article-asset-center\">\n<div class=\"desvio-container\">\n<div class=\"desvio\">\n<div class=\"desvio-figure js-desvio-figure\">\n    <a href=\"https:\/\/www.xataka.com\/robotica-e-ia\/anthropic-dice-que-claude-mythos-demasiado-potente-para-hacerlo-publico-pregunta-esto-no-que-que-viene-lobo\" class=\"pivot-outboundlink\" data-vars-post-title='Anthropic dice que Claude Mythos es demasiado potente para hacerlo p\u00fablico. La pregunta es si esto no es m\u00e1s que un \"que viene el lobo\" '><br \/>\n     <img loading=\"lazy\" decoding=\"async\" alt='Anthropic dice que Claude Mythos es demasiado potente para hacerlo p\u00fablico. La pregunta es si esto no es m\u00e1s que un \"que viene el lobo\" ' width=\"375\" height=\"142\" src=\"https:\/\/i.blogs.es\/3d4590\/mythos-rendimiento\/375_142.jpeg\"><br \/>\n    <\/a>\n   <\/div>\n<div class=\"desvio-summary\">\n<div class=\"desvio-taxonomy js-desvio-taxonomy\">\n     <a href=\"https:\/\/www.xataka.com\/robotica-e-ia\/anthropic-dice-que-claude-mythos-demasiado-potente-para-hacerlo-publico-pregunta-esto-no-que-que-viene-lobo\" class=\"desvio-taxonomy-anchor pivot-outboundlink\" data-vars-post-title='Anthropic dice que Claude Mythos es demasiado potente para hacerlo p\u00fablico. La pregunta es si esto no es m\u00e1s que un \"que viene el lobo\" '>En Xataka<\/a>\n    <\/div>\n<p>    <a href=\"https:\/\/www.xataka.com\/robotica-e-ia\/anthropic-dice-que-claude-mythos-demasiado-potente-para-hacerlo-publico-pregunta-esto-no-que-que-viene-lobo\" class=\"desvio-title js-desvio-title pivot-outboundlink\" data-vars-post-title='Anthropic dice que Claude Mythos es demasiado potente para hacerlo p\u00fablico. La pregunta es si esto no es m\u00e1s que un \"que viene el lobo\" '>Anthropic dice que Claude Mythos es demasiado potente para hacerlo p\u00fablico. La pregunta es si esto no es m\u00e1s que un \"que viene el lobo\" <\/a>\n   <\/div>\n<\/p><\/div>\n<\/p><\/div>\n<\/div>\n<p><strong>Los n\u00fameros<\/strong>. En ese an\u00e1lisis se muestran seg\u00fan Laurenzo dos periodos. En el periodo bueno, de enero a mediados de febrero, el modelo le\u00eda 6,6 archivos por cada archivo que editaba. En el periodo te\u00f3ricamente degradado, de marzo en adelante, esa tasa hab\u00eda ca\u00eddo a 2,0 archivos le\u00eddos.\u00a0<\/p>\n<p><!-- BREAK 3 --><\/p>\n<p>Las ediciones de c\u00f3digo en ficheros que Claude no hab\u00eda revisado recientemente pasaron del 6,2% al 33,7%: uno de cada tres cambios al c\u00f3digo los estaba haciendo \"a ciegas\". Adem\u00e1s se redujo la visibilidad del razonamiento, de 2.200 caracteres a solo 600 de media, pero hay algo m\u00e1s. Los costes del proceso se multiplicaron por 122 en el mismo periodo, aunque es cierto que en ese periodo pasaron de usar 1-3 agentes concurrentes a usar 5-10, lo que complica la interpretaci\u00f3n de los datos.<\/p>\n<div class=\"article-asset-image article-asset-normal article-asset-center\">\n<div class=\"asset-content\">\n                    <a rel=\"noopener, noreferrer\" href=\"https:\/\/x.com\/trq212\/status\/2037254607001559305\"><\/p>\n<p>    <img decoding=\"async\" alt=\"Captura De Pantalla 2026 04 15 A Las 11 21 10\" class=\"centro_sinmarco\" src=\"https:\/\/i.blogs.es\/cd9bfd\/captura-de-pantalla-2026-04-15-a-las-11.21.10\/450_1000.jpeg\"><br \/>\n     <\/a><\/p><\/div>\n<\/div>\n<p><strong>Anthropic trata de aclarar qu\u00e9 ha pasado<\/strong>. La respuesta oficial de Anthropic <a rel=\"noopener, noreferrer\" href=\"https:\/\/github.com\/anthropics\/claude-code\/issues\/42796#issuecomment-4194007103\">la public\u00f3 Boris Cherny<\/a>, responsable de Claude Code. Este ingeniero confirm\u00f3 dos cambios de producto reales: el 9 de febrero, Opus 4.6 pas\u00f3 a usar el llamado \"razonamiento adaptativo\" por defecto. El 3 de marzo, el nivel de esfuerzo por defecto pas\u00f3 de alto a medio, situ\u00e1ndose en el nivel 85 que Anthropic describe como \"el mejor equilibrio entre inteligencia, latencia y coste para la mayor\u00eda de los usuarios\".<\/p>\n<p><!-- BREAK 4 --><\/p>\n<p><strong>Debate cerrado<\/strong>. Cherny tambi\u00e9n habl\u00f3 de esa sospecha de que ahora Claude estaba ocultando \"c\u00f3mo pensaba\". Explic\u00f3 que el cambio en los registros de razonamiento \u00a0visible no es una degradaci\u00f3n real, y la cabecera detectada era simplemente una modificaci\u00f3n de la interfaz de usado que ocultaba el razonamiento intermedio para reducir la latencia sin afectar el rendimiento del modelo. La propia Laurenzo ya hab\u00eda previsto algo as\u00ed e intent\u00f3 implementar soluciones para evitarlo pero sus datos confirmaban esa ca\u00edda de rendimiento. Cherny cerr\u00f3 el debate como dando por resuelta la cuesti\u00f3n, pero no parece que realmente lo est\u00e9.<\/p>\n<div class=\"article-asset-image article-asset-normal article-asset-center\">\n<div class=\"asset-content\">\n                    <a rel=\"noopener, noreferrer\" href=\"https:\/\/x.com\/trq212\/status\/2037254607001559305\"><\/p>\n<p>    <img decoding=\"async\" alt=\"Captura De Pantalla 2026 04 15 A Las 11 20 18\" class=\"centro_sinmarco\" src=\"https:\/\/i.blogs.es\/6ec775\/captura-de-pantalla-2026-04-15-a-las-11.20.18\/450_1000.jpeg\"><br \/>\n     <\/a><\/p><\/div>\n<\/div>\n<p><strong>Crisis de capacidad de c\u00f3mputo<\/strong>. Thariq Shihipar, del equipo de Claude Code, revel\u00f3 en marzo que Anthropic estaba <a rel=\"noopener, noreferrer\" href=\"https:\/\/x.com\/trq212\/status\/2037254607001559305\">ajustando los l\u00edmites de sesi\u00f3n de 5 horas<\/a> durante las horas pico. Es decir: si hab\u00eda mucha demanda, tus tokens de Claude probablemente se agotar\u00edan m\u00e1s r\u00e1pido. Se\u00f1al\u00f3 que la medida en realidad solo la notar\u00edan el 7% de los usuarios (los m\u00e1s intensivos en esas horas punta), y <a rel=\"noopener, noreferrer\" href=\"https:\/\/x.com\/trq212\/status\/2037254609455243503\">confes\u00f3<\/a> que \"s\u00e9 que esto es frustrante. Seguiremos invirtiendo en escalar la eficiencia\". Eso se contradice con un comentario en el debate sobre el post de Laurenzo en el que <a rel=\"noopener, noreferrer\" href=\"https:\/\/x.com\/trq212\/status\/2043023892579766290\">explic\u00f3<\/a> que \"no degradamos nuestros modelos para servir mejor la demanda, lo he dicho muchas veces con anterioridad\".\u00a0<\/p>\n<p><!-- BREAK 5 --><\/p>\n<div class=\"article-asset-image article-asset-normal article-asset-center\">\n<div class=\"asset-content\">\n                    <a rel=\"noopener, noreferrer\" href=\"https:\/\/x.com\/RoundtableSpace\/status\/2043951135799627996\"><\/p>\n<p>    <img decoding=\"async\" alt=\"Captura De Pantalla 2026 04 15 A Las 11 32 34\" class=\"centro_sinmarco\" src=\"https:\/\/i.blogs.es\/558bb0\/captura-de-pantalla-2026-04-15-a-las-11.32.34\/450_1000.jpeg\"><br \/>\n     <\/a><\/p><\/div>\n<\/div>\n<p><strong>M\u00e1s degradaciones<\/strong>. Aparecieron <a rel=\"noopener, noreferrer\" href=\"https:\/\/github.com\/anthropics\/claude-code\/issues\/46829\">otros descubrimientos y cr\u00edticas<\/a>, como el de c\u00f3mo la cach\u00e9 de prompts de Claude Code tambi\u00e9n se hab\u00eda reducido de forma dr\u00e1stica (de una hora a cinco minutos), disparando el consumo de cuota en sesiones largas de programaci\u00f3n. Anthropic <a rel=\"noopener, noreferrer\" href=\"https:\/\/venturebeat.com\/technology\/is-anthropic-nerfing-claude-users-increasingly-report-performance\">le indic\u00f3<\/a> a VentureBeat que las cuentas Team y Enterprise no se ven afectadas por esos l\u00edmites de sesi\u00f3n, pero el patr\u00f3n parece cada vez m\u00e1s claro: el c\u00f3mputo escasea y hay que racionarlo&#8230; o al menos eso es lo que parecen apuntar todas estas medidas de Anthropic. Lo que sigue sin estar claro es si la calidad del modelo realmente se ha visto degradada, aunque hay <a rel=\"noopener, noreferrer\" href=\"https:\/\/www.reddit.com\/r\/ClaudeAI\/comments\/1s7f72l\/claude_performance_and_bugs_megathread_ongoing\/\">\"megahilos\" de Reddit<\/a> que apuntan tambi\u00e9n a esa direcci\u00f3n.<\/p>\n<p><!-- BREAK 6 --><\/p>\n<div class=\"article-asset-image article-asset-normal article-asset-center\">\n<div class=\"asset-content\">\n                    <a rel=\"noopener, noreferrer\" href=\"https:\/\/x.com\/bcherny\/status\/2043163965648515234\"><\/p>\n<p>    <img decoding=\"async\" alt=\"Captura De Pantalla 2026 04 15 A Las 11 26 21\" class=\"centro_sinmarco\" src=\"https:\/\/i.blogs.es\/1ae5e8\/captura-de-pantalla-2026-04-15-a-las-11.26.21\/450_1000.jpeg\"><br \/>\n     <\/a><\/p><\/div>\n<\/div>\n<p><strong>De \"nerfing\", nada<\/strong>. Que una empresa degrade su servicio de forma premeditada se suele llamar \"nerfing\" <a rel=\"noopener, noreferrer\" href=\"https:\/\/x.com\/petergyang\/status\/2043466663258140685\">en redes sociales<\/a>, y las cr\u00edticas en este sentido se fueron disparando en el caso de Anthropic. <a rel=\"noopener, noreferrer\" href=\"https:\/\/x.com\/alex_prompter\/status\/2043251644620525859\">Numerosas<\/a> <a rel=\"noopener, noreferrer\" href=\"https:\/\/x.com\/kimmonismus\/status\/2043052039413100660\">publicaciones<\/a> de usuarios en X y <a rel=\"noopener, noreferrer\" href=\"https:\/\/fortune.com\/2026\/04\/14\/anthropic-claude-performance-decline-user-complaints-backlash-lack-of-transparency-accusations-compute-crunch\/\">en medios<\/a> de <a rel=\"noopener, noreferrer\" href=\"https:\/\/venturebeat.com\/technology\/is-anthropic-nerfing-claude-users-increasingly-report-performance\">tecnolog\u00eda<\/a> han hecho <a rel=\"noopener, noreferrer\" href=\"https:\/\/x.com\/tengyanAI\/status\/2043138374794666490\">referencia<\/a> al estudio de Laurenzo y acusaban a Anthropic de esa degradaci\u00f3n volunaria de sus modelos. Boris Cherny <a rel=\"noopener, noreferrer\" href=\"https:\/\/x.com\/bcherny\/status\/2043163965648515234\">intervino al menos en un caso<\/a> para decir tajantamente que \"Eso es falso\" y para explicar que informaron de los cambios y de hecho dieron la opci\u00f3n a los usuarios de desactivarlo.\u00a0<\/p>\n<p><!-- BREAK 7 --><\/p>\n<p><strong>Pero el racionamiento existe<\/strong>. En The Wall Street Journal confirmaban que ese racionamiento del c\u00f3mputo <a rel=\"noopener, noreferrer\" href=\"https:\/\/www.wsj.com\/tech\/ai\/ai-is-using-so-much-energy-that-computing-firepower-is-running-out-156e5c85\">est\u00e1 ciertamente produci\u00e9ndose<\/a> entre las plataformas de IA debido a la alta demanda. Un buen ejemplo de las consecuencias lo tenemos en David Hsu, fundador y CEO de Retool. Explic\u00f3 en dicho diario que aunque prefer\u00eda Claude Opus 4.6 para potenciar su agente de IA, tuvo que cambiar recientemente al modelo de OpenAI porque \"Anthropic no para de caerse todo el tiempo\".<\/p>\n<p><strong>Los precios cambian (silenciosamente)<\/strong>. The Information indic\u00f3 ayer que Anthropic est\u00e1 cambiando la forma de facturar a los usuarios de los planes Enterprise. En lugar de una suscripci\u00f3n de 200 d\u00f3lares al mes con una \"tarifa plana\" de uso de sus modelos de IA, lo que har\u00e1n ser\u00e1 cobrar una tarifa base de 20 d\u00f3lares por usuario y mes y a eso le sumar\u00e1n el consumo de cada usuario con el precio est\u00e1ndar de su API. \u00a0Su propia documentaci\u00f3n actualizada <a rel=\"noopener, noreferrer\" href=\"https:\/\/support.claude.com\/en\/articles\/9797531-what-is-the-enterprise-plan?ref=implicator.ai\">lo se\u00f1ala<\/a> (\"El uso nno est\u00e1 incluido en la tarifa por asiento\") y se estima que el cambio puede doblar o incluso triplicar el coste usar Claude para usuarios intensivos. Desaparecen adem\u00e1s los descuentos del 10 al 15% de la API que se inclu\u00edan en el pasado y que permit\u00edan a las empresas escalar ese consumo de tokens de forma m\u00e1s asequible. Los precios por mill\u00f3n de tokens no han cambiado, pero pasamos de una \"tarifa plana\" (con cuotas de uso) a un modelo de pago por uso, mucho m\u00e1s caro para usuarios intensivos.<\/p>\n<p><!-- BREAK 8 --><\/p>\n<div class=\"article-asset-video article-asset-normal\">\n<div class=\"asset-content\">\n<div class=\"base-asset-video\">\n<div class=\"js-dailymotion\"><\/div>\n<\/p><\/div>\n<\/p><\/div>\n<\/div>\n<p><strong>No es solo Anthropic<\/strong>. El movimiento de esta empresa no es algo aislado. OpenAI <a rel=\"noopener, noreferrer\" href=\"https:\/\/help.openai.com\/en\/articles\/20001106-codex-rate-card\">cambi\u00f3 los precios de Codex<\/a> para alinearlo con el uso de tokens de API en lugar de facturar por mensaje. GitHub <a rel=\"noopener, noreferrer\" href=\"https:\/\/github.blog\/changelog\/2026-04-10-enforcing-new-limits-and-retiring-opus-4-6-fast-from-copilot-pro\/\">public\u00f3 en su registro de cambios<\/a> que actualizaba los l\u00edmites para equilibrar la capacidad porque el uso intensivo \"provoca tensi\u00f3n en nuestra infraestructura compartida\". En marzo la plataforma Windsurf <a rel=\"noopener, noreferrer\" href=\"https:\/\/windsurf.com\/blog\/windsurf-pricing-plans\">elimin\u00f3<\/a> su sistema de cr\u00e9ditos en favor de cuotas diarias y semanales, algo que fue <a rel=\"noopener, noreferrer\" href=\"https:\/\/www.reddit.com\/r\/windsurf\/comments\/1s1es3f\/windsurf_is_simply_destroying_its_reputation_with\/\">criticado por los desarrolladores<\/a> que usaban el anterior sistema de facturacion \"flexible\". Replit <a rel=\"noopener, noreferrer\" href=\"https:\/\/blog.replit.com\/pro-plan\">hizo un cambio similar<\/a> que tambi\u00e9n fue <a rel=\"noopener, noreferrer\" href=\"https:\/\/www.linkedin.com\/pulse\/replits-pricing-change-really-trust-credits-nikhil-mishra-u0p4f\/\">muy comentado<\/a> en redes sociales.\u00a0<\/p>\n<p><!-- BREAK 9 --><\/p>\n<p><strong>La barra libre se acab\u00f3<\/strong>. Las empresas de IA est\u00e1n d\u00e1ndose cuenta de que la demanda est\u00e1 creciendo m\u00e1s r\u00e1pido de lo que pueden asumir, y est\u00e1n ajustando la forma en la que ofrecen sus modelos y servicios para ajustarse a esa demanda. Lo malo es que para los usuarios y desarrolladores el efecto est\u00e1 siendo el mismo: o sus tokens se les acaban antes, o perciben que la IA ya no es tan buena como antes.\u00a0<\/p>\n<p><!-- BREAK 10 --><\/p>\n<p>En Xataka |\u00a0<a class=\"text-outboundlink\" href=\"https:\/\/www.xataka.com\/robotica-e-ia\/economia-tokens-se-ha-roto-tarifas-planas-ia-para-programar-matematicamente-insostenibles\" data-vars-post-title=\"La \u201ceconom\u00eda de los tokens\u201d se ha roto: las tarifas planas de IA para programar son matem\u00e1ticamente insostenibles \" data-vars-post-url=\"https:\/\/www.xataka.com\/robotica-e-ia\/economia-tokens-se-ha-roto-tarifas-planas-ia-para-programar-matematicamente-insostenibles\">La \u201ceconom\u00eda de los tokens\u201d se ha roto: las tarifas planas de IA para programar son matem\u00e1ticamente insostenibles<\/a><\/p>\n<p> &#8211; <br \/> La noticia<br \/>\n      <a href=\"https:\/\/www.xataka.com\/robotica-e-ia\/anthropic-fue-dont-be-evil-ia-para-desarrolladores-ahora-esta-exprimiendo-a-todos?utm_source=feedburner&amp;utm_medium=feed&amp;utm_campaign=15_Apr_2026\"><br \/>\n       <em> Anthropic fue el \"don&#8217;t be evil\" de la IA para los desarrolladores. Ahora los est\u00e1 exprimiendo a todos  <\/em><br \/>\n      <\/a><br \/>\n      fue publicada originalmente en<br \/>\n      <a href=\"https:\/\/www.xataka.com\/?utm_source=feedburner&amp;utm_medium=feed&amp;utm_campaign=15_Apr_2026\"><br \/>\n       <strong> Xataka <\/strong><br \/>\n      <\/a><br \/>\n             por <a href=\"https:\/\/www.xataka.com\/autor\/javier-pastor?utm_source=feedburner&amp;utm_medium=feed&amp;utm_campaign=15_Apr_2026\"><br \/>\n        Javier Pastor<br \/>\n       <\/a><br \/>\n      . <\/p>\n<p>\u00a0Claude Code y Claude Opus 4.6 detonaron una era dorada para los desarrolladores, que se encontraron con un agente de IA y un modelo fant\u00e1sticos para su trabajo. De repente OpenAI ya no era la empresa de moda: lo era Anthropic, que enamor\u00f3 a usuarios y desarrolladores y se convirti\u00f3 en la ni\u00f1a bonita de la IA. Meses despu\u00e9s estamos viendo c\u00f3mo Anthropic est\u00e1 haciendo cambios que est\u00e1n siendo muy criticados y que apuntan a algo que ya hemos visto en repetidas ocasiones: las plataformas te conquistan e inevitablemente luego las plataformas te exprimen.<\/p>\n<p>El detonante. El 2 de abril de 2026, Stella Laurenzo, Senior Director en el grupo de IA de AMD, public\u00f3 un texto en el repositorio de GitHub de Claude Code titulado \"Claude Code es in\u00fatil para tareas de ingenier\u00eda complejas con las actualizaciones de febrero\". Esta directiva incluy\u00f3 un an\u00e1lisis meticuloso de casi 6.600 sesiones reales de Claude Code con cerca de 235.000 llamadas a herramientas y uns 18.000 bloques de razonamiento en cuatro proyectos distintos. Las conclusiones eran para ella obvias: el rendimiento de Claude Code y de Claude Opus 4.6 se hab\u00edan degradado.<\/p>\n<p>     En Xataka<\/p>\n<p>    Anthropic dice que Claude Mythos es demasiado potente para hacerlo p\u00fablico. La pregunta es si esto no es m\u00e1s que un \"que viene el lobo\" <\/p>\n<p>Los n\u00fameros. En ese an\u00e1lisis se muestran seg\u00fan Laurenzo dos periodos. En el periodo bueno, de enero a mediados de febrero, el modelo le\u00eda 6,6 archivos por cada archivo que editaba. En el periodo te\u00f3ricamente degradado, de marzo en adelante, esa tasa hab\u00eda ca\u00eddo a 2,0 archivos le\u00eddos.\u00a0<br \/>\nLas ediciones de c\u00f3digo en ficheros que Claude no hab\u00eda revisado recientemente pasaron del 6,2% al 33,7%: uno de cada tres cambios al c\u00f3digo los estaba haciendo \"a ciegas\". Adem\u00e1s se redujo la visibilidad del razonamiento, de 2.200 caracteres a solo 600 de media, pero hay algo m\u00e1s. Los costes del proceso se multiplicaron por 122 en el mismo periodo, aunque es cierto que en ese periodo pasaron de usar 1-3 agentes concurrentes a usar 5-10, lo que complica la interpretaci\u00f3n de los datos.<\/p>\n<p>Anthropic trata de aclarar qu\u00e9 ha pasado. La respuesta oficial de Anthropic la public\u00f3 Boris Cherny, responsable de Claude Code. Este ingeniero confirm\u00f3 dos cambios de producto reales: el 9 de febrero, Opus 4.6 pas\u00f3 a usar el llamado \"razonamiento adaptativo\" por defecto. El 3 de marzo, el nivel de esfuerzo por defecto pas\u00f3 de alto a medio, situ\u00e1ndose en el nivel 85 que Anthropic describe como \"el mejor equilibrio entre inteligencia, latencia y coste para la mayor\u00eda de los usuarios\".<br \/>\nDebate cerrado. Cherny tambi\u00e9n habl\u00f3 de esa sospecha de que ahora Claude estaba ocultando \"c\u00f3mo pensaba\". Explic\u00f3 que el cambio en los registros de razonamiento \u00a0visible no es una degradaci\u00f3n real, y la cabecera detectada era simplemente una modificaci\u00f3n de la interfaz de usado que ocultaba el razonamiento intermedio para reducir la latencia sin afectar el rendimiento del modelo. La propia Laurenzo ya hab\u00eda previsto algo as\u00ed e intent\u00f3 implementar soluciones para evitarlo pero sus datos confirmaban esa ca\u00edda de rendimiento. Cherny cerr\u00f3 el debate como dando por resuelta la cuesti\u00f3n, pero no parece que realmente lo est\u00e9.<\/p>\n<p>Crisis de capacidad de c\u00f3mputo. Thariq Shihipar, del equipo de Claude Code, revel\u00f3 en marzo que Anthropic estaba ajustando los l\u00edmites de sesi\u00f3n de 5 horas durante las horas pico. Es decir: si hab\u00eda mucha demanda, tus tokens de Claude probablemente se agotar\u00edan m\u00e1s r\u00e1pido. Se\u00f1al\u00f3 que la medida en realidad solo la notar\u00edan el 7% de los usuarios (los m\u00e1s intensivos en esas horas punta), y confes\u00f3 que \"s\u00e9 que esto es frustrante. Seguiremos invirtiendo en escalar la eficiencia\". Eso se contradice con un comentario en el debate sobre el post de Laurenzo en el que explic\u00f3 que \"no degradamos nuestros modelos para servir mejor la demanda, lo he dicho muchas veces con anterioridad\".\u00a0<\/p>\n<p>M\u00e1s degradaciones. Aparecieron otros descubrimientos y cr\u00edticas, como el de c\u00f3mo la cach\u00e9 de prompts de Claude Code tambi\u00e9n se hab\u00eda reducido de forma dr\u00e1stica (de una hora a cinco minutos), disparando el consumo de cuota en sesiones largas de programaci\u00f3n. Anthropic le indic\u00f3 a VentureBeat que las cuentas Team y Enterprise no se ven afectadas por esos l\u00edmites de sesi\u00f3n, pero el patr\u00f3n parece cada vez m\u00e1s claro: el c\u00f3mputo escasea y hay que racionarlo&#8230; o al menos eso es lo que parecen apuntar todas estas medidas de Anthropic. Lo que sigue sin estar claro es si la calidad del modelo realmente se ha visto degradada, aunque hay \"megahilos\" de Reddit que apuntan tambi\u00e9n a esa direcci\u00f3n.<\/p>\n<p>De \"nerfing\", nada. Que una empresa degrade su servicio de forma premeditada se suele llamar \"nerfing\" en redes sociales, y las cr\u00edticas en este sentido se fueron disparando en el caso de Anthropic. Numerosas publicaciones de usuarios en X y en medios de tecnolog\u00eda han hecho referencia al estudio de Laurenzo y acusaban a Anthropic de esa degradaci\u00f3n volunaria de sus modelos. Boris Cherny intervino al menos en un caso para decir tajantamente que \"Eso es falso\" y para explicar que informaron de los cambios y de hecho dieron la opci\u00f3n a los usuarios de desactivarlo.\u00a0<br \/>\nPero el racionamiento existe. En The Wall Street Journal confirmaban que ese racionamiento del c\u00f3mputo est\u00e1 ciertamente produci\u00e9ndose entre las plataformas de IA debido a la alta demanda. Un buen ejemplo de las consecuencias lo tenemos en David Hsu, fundador y CEO de Retool. Explic\u00f3 en dicho diario que aunque prefer\u00eda Claude Opus 4.6 para potenciar su agente de IA, tuvo que cambiar recientemente al modelo de OpenAI porque \"Anthropic no para de caerse todo el tiempo\".<br \/>\nLos precios cambian (silenciosamente). The Information indic\u00f3 ayer que Anthropic est\u00e1 cambiando la forma de facturar a los usuarios de los planes Enterprise. En lugar de una suscripci\u00f3n de 200 d\u00f3lares al mes con una \"tarifa plana\" de uso de sus modelos de IA, lo que har\u00e1n ser\u00e1 cobrar una tarifa base de 20 d\u00f3lares por usuario y mes y a eso le sumar\u00e1n el consumo de cada usuario con el precio est\u00e1ndar de su API. \u00a0Su propia documentaci\u00f3n actualizada lo se\u00f1ala (\"El uso nno est\u00e1 incluido en la tarifa por asiento\") y se estima que el cambio puede doblar o incluso triplicar el coste usar Claude para usuarios intensivos. Desaparecen adem\u00e1s los descuentos del 10 al 15% de la API que se inclu\u00edan en el pasado y que permit\u00edan a las empresas escalar ese consumo de tokens de forma m\u00e1s asequible. Los precios por mill\u00f3n de tokens no han cambiado, pero pasamos de una \"tarifa plana\" (con cuotas de uso) a un modelo de pago por uso, mucho m\u00e1s caro para usuarios intensivos.<\/p>\n<p>No es solo Anthropic. El movimiento de esta empresa no es algo aislado. OpenAI cambi\u00f3 los precios de Codex para alinearlo con el uso de tokens de API en lugar de facturar por mensaje. GitHub public\u00f3 en su registro de cambios que actualizaba los l\u00edmites para equilibrar la capacidad porque el uso intensivo \"provoca tensi\u00f3n en nuestra infraestructura compartida\". En marzo la plataforma Windsurf elimin\u00f3 su sistema de cr\u00e9ditos en favor de cuotas diarias y semanales, algo que fue criticado por los desarrolladores que usaban el anterior sistema de facturacion \"flexible\". Replit hizo un cambio similar que tambi\u00e9n fue muy comentado en redes sociales.\u00a0<\/p>\n<p>La barra libre se acab\u00f3. Las empresas de IA est\u00e1n d\u00e1ndose cuenta de que la demanda est\u00e1 creciendo m\u00e1s r\u00e1pido de lo que pueden asumir, y est\u00e1n ajustando la forma en la que ofrecen sus modelos y servicios para ajustarse a esa demanda. Lo malo es que para los usuarios y desarrolladores el efecto est\u00e1 siendo el mismo: o sus tokens se les acaban antes, o perciben que la IA ya no es tan buena como antes.\u00a0<\/p>\n<p>En Xataka |\u00a0La \u201ceconom\u00eda de los tokens\u201d se ha roto: las tarifas planas de IA para programar son matem\u00e1ticamente insostenibles<\/p>\n<p>                 &#8211;  La noticia<\/p>\n<p>        Anthropic fue el \"don&#8217;t be evil\" de la IA para los desarrolladores. Ahora los est\u00e1 exprimiendo a todos  <\/p>\n<p>      fue publicada originalmente en<\/p>\n<p>        Xataka <\/p>\n<p>             por<br \/>\n        Javier Pastor<\/p>\n<p>      .\u00a0\u00a0\u00a0<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Claude Code y Claude Opus 4.6 detonaron una era dorada para los desarrolladores, que se encontraron con un agente de IA y un modelo fant\u00e1sticos para su trabajo. De repente OpenAI ya no era la empresa de moda: lo era Anthropic, que enamor\u00f3 a usuarios y desarrolladores y se convirti\u00f3 en la ni\u00f1a bonita de [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":18133,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"amp_status":"","footnotes":""},"categories":[6],"tags":[],"class_list":["post-18132","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-ciencia-y-tecnologia"],"_links":{"self":[{"href":"https:\/\/ermdigital.com\/index.php\/wp-json\/wp\/v2\/posts\/18132","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/ermdigital.com\/index.php\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/ermdigital.com\/index.php\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/ermdigital.com\/index.php\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/ermdigital.com\/index.php\/wp-json\/wp\/v2\/comments?post=18132"}],"version-history":[{"count":0,"href":"https:\/\/ermdigital.com\/index.php\/wp-json\/wp\/v2\/posts\/18132\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/ermdigital.com\/index.php\/wp-json\/wp\/v2\/media\/18133"}],"wp:attachment":[{"href":"https:\/\/ermdigital.com\/index.php\/wp-json\/wp\/v2\/media?parent=18132"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/ermdigital.com\/index.php\/wp-json\/wp\/v2\/categories?post=18132"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/ermdigital.com\/index.php\/wp-json\/wp\/v2\/tags?post=18132"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}