Ciencia y Tecnología

Anthropic fue el "don’t be evil" de la IA para los desarrolladores. Ahora los está exprimiendo a todos

Published

on

<p>&NewLine; <img src&equals;"https&colon;&sol;&sol;i&period;blogs&period;es&sol;4c8097&sol;anthropic2&sol;1024&lowbar;2000&period;jpeg" alt&equals;"Anthropic fue el &quot&semi;don't be evil&quot&semi; de la IA para los desarrolladores&period; Ahora los está exprimiendo a todos ">&NewLine; <&sol;p>&NewLine;<p>Claude Code y Claude Opus 4&period;6 detonaron una era dorada para los desarrolladores&comma; que se encontraron con un agente de IA y un modelo fantásticos para su trabajo&period; De repente OpenAI ya no era la empresa de moda&colon; lo era Anthropic&comma; que <a class&equals;"text-outboundlink" href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;anthropic-se-ha-convertido-apple-nuestra-era-openai-nuestra-microsoft-historia-amor-odio" data-vars-post-title&equals;"Anthropic se ha convertido en la Apple de nuestra era y OpenAI en nuestra Microsoft&colon; una historia de amor y odio " data-vars-post-url&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;anthropic-se-ha-convertido-apple-nuestra-era-openai-nuestra-microsoft-historia-amor-odio">enamoró a usuarios y desarrolladores<&sol;a> y se convirtió <a class&equals;"text-outboundlink" href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;anthropic-se-ha-convertido-nina-bonita-ia-se-ha-buscado-socio-para-garantizar-su-futuro-no-que-pensabamos" data-vars-post-title&equals;"Anthropic se ha convertido en la niña bonita de la IA y se ha buscado un socio para garantizar su futuro&period; No es el que pensábamos " data-vars-post-url&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;anthropic-se-ha-convertido-nina-bonita-ia-se-ha-buscado-socio-para-garantizar-su-futuro-no-que-pensabamos">en la niña bonita de la IA<&sol;a>&period; Meses después estamos viendo cómo Anthropic está haciendo cambios que están siendo muy criticados y que apuntan a algo que ya hemos visto en repetidas ocasiones&colon; las plataformas te conquistan e inevitablemente luego las plataformas te exprimen&period;<&sol;p>&NewLine;<p><&excl;-- BREAK 1 --><&sol;p>&NewLine;<p><strong>El detonante<&sol;strong>&period; El 2 de abril de 2026&comma; Stella Laurenzo&comma; Senior Director en el grupo de IA de AMD&comma; <a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;github&period;com&sol;anthropics&sol;claude-code&sol;issues&sol;42796">publicó un texto<&sol;a> en el repositorio de GitHub de Claude Code titulado "Claude Code es inútil para tareas de ingeniería complejas con las actualizaciones de febrero"&period; Esta directiva incluyó un análisis meticuloso de casi 6&period;600 sesiones reales de Claude Code con cerca de 235&period;000 llamadas a herramientas y uns 18&period;000 bloques de razonamiento en cuatro proyectos distintos&period; Las conclusiones eran para ella obvias&colon; el rendimiento de Claude Code y de Claude Opus 4&period;6 se habían degradado&period;<&sol;p>&NewLine;<p><&excl;-- BREAK 2 --><&sol;p>&NewLine;<div class&equals;"article-asset article-asset-normal article-asset-center">&NewLine;<div class&equals;"desvio-container">&NewLine;<div class&equals;"desvio">&NewLine;<div class&equals;"desvio-figure js-desvio-figure">&NewLine; <a href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;anthropic-dice-que-claude-mythos-demasiado-potente-para-hacerlo-publico-pregunta-esto-no-que-que-viene-lobo" class&equals;"pivot-outboundlink" data-vars-post-title&equals;'Anthropic dice que Claude Mythos es demasiado potente para hacerlo público&period; La pregunta es si esto no es más que un "que viene el lobo" '><br &sol;>&NewLine; <img alt&equals;'Anthropic dice que Claude Mythos es demasiado potente para hacerlo público&period; La pregunta es si esto no es más que un "que viene el lobo" ' width&equals;"375" height&equals;"142" src&equals;"https&colon;&sol;&sol;i&period;blogs&period;es&sol;3d4590&sol;mythos-rendimiento&sol;375&lowbar;142&period;jpeg"><br &sol;>&NewLine; <&sol;a>&NewLine; <&sol;div>&NewLine;<div class&equals;"desvio-summary">&NewLine;<div class&equals;"desvio-taxonomy js-desvio-taxonomy">&NewLine; <a href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;anthropic-dice-que-claude-mythos-demasiado-potente-para-hacerlo-publico-pregunta-esto-no-que-que-viene-lobo" class&equals;"desvio-taxonomy-anchor pivot-outboundlink" data-vars-post-title&equals;'Anthropic dice que Claude Mythos es demasiado potente para hacerlo público&period; La pregunta es si esto no es más que un "que viene el lobo" '>En Xataka<&sol;a>&NewLine; <&sol;div>&NewLine;<p> <a href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;anthropic-dice-que-claude-mythos-demasiado-potente-para-hacerlo-publico-pregunta-esto-no-que-que-viene-lobo" class&equals;"desvio-title js-desvio-title pivot-outboundlink" data-vars-post-title&equals;'Anthropic dice que Claude Mythos es demasiado potente para hacerlo público&period; La pregunta es si esto no es más que un "que viene el lobo" '>Anthropic dice que Claude Mythos es demasiado potente para hacerlo público&period; La pregunta es si esto no es más que un "que viene el lobo" <&sol;a>&NewLine; <&sol;div>&NewLine;<&sol;p><&sol;div>&NewLine;<&sol;p><&sol;div>&NewLine;<&sol;div>&NewLine;<p><strong>Los números<&sol;strong>&period; En ese análisis se muestran según Laurenzo dos periodos&period; En el periodo bueno&comma; de enero a mediados de febrero&comma; el modelo leía 6&comma;6 archivos por cada archivo que editaba&period; En el periodo teóricamente degradado&comma; de marzo en adelante&comma; esa tasa había caído a 2&comma;0 archivos leídos&period; <&sol;p>&NewLine;<p><&excl;-- BREAK 3 --><&sol;p>&NewLine;<p>Las ediciones de código en ficheros que Claude no había revisado recientemente pasaron del 6&comma;2&percnt; al 33&comma;7&percnt;&colon; uno de cada tres cambios al código los estaba haciendo "a ciegas"&period; Además se redujo la visibilidad del razonamiento&comma; de 2&period;200 caracteres a solo 600 de media&comma; pero hay algo más&period; Los costes del proceso se multiplicaron por 122 en el mismo periodo&comma; aunque es cierto que en ese periodo pasaron de usar 1-3 agentes concurrentes a usar 5-10&comma; lo que complica la interpretación de los datos&period;<&sol;p>&NewLine;<div class&equals;"article-asset-image article-asset-normal article-asset-center">&NewLine;<div class&equals;"asset-content">&NewLine; <a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;x&period;com&sol;trq212&sol;status&sol;2037254607001559305"><&sol;p>&NewLine;<p> <img alt&equals;"Captura De Pantalla 2026 04 15 A Las 11 21 10" class&equals;"centro&lowbar;sinmarco" src&equals;"https&colon;&sol;&sol;i&period;blogs&period;es&sol;cd9bfd&sol;captura-de-pantalla-2026-04-15-a-las-11&period;21&period;10&sol;450&lowbar;1000&period;jpeg"><br &sol;>&NewLine; <&sol;a><&sol;p><&sol;div>&NewLine;<&sol;div>&NewLine;<p><strong>Anthropic trata de aclarar qué ha pasado<&sol;strong>&period; La respuesta oficial de Anthropic <a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;github&period;com&sol;anthropics&sol;claude-code&sol;issues&sol;42796&num;issuecomment-4194007103">la publicó Boris Cherny<&sol;a>&comma; responsable de Claude Code&period; Este ingeniero confirmó dos cambios de producto reales&colon; el 9 de febrero&comma; Opus 4&period;6 pasó a usar el llamado "razonamiento adaptativo" por defecto&period; El 3 de marzo&comma; el nivel de esfuerzo por defecto pasó de alto a medio&comma; situándose en el nivel 85 que Anthropic describe como "el mejor equilibrio entre inteligencia&comma; latencia y coste para la mayoría de los usuarios"&period;<&sol;p>&NewLine;<p><&excl;-- BREAK 4 --><&sol;p>&NewLine;<p><strong>Debate cerrado<&sol;strong>&period; Cherny también habló de esa sospecha de que ahora Claude estaba ocultando "cómo pensaba"&period; Explicó que el cambio en los registros de razonamiento  visible no es una degradación real&comma; y la cabecera detectada era simplemente una modificación de la interfaz de usado que ocultaba el razonamiento intermedio para reducir la latencia sin afectar el rendimiento del modelo&period; La propia Laurenzo ya había previsto algo así e intentó implementar soluciones para evitarlo pero sus datos confirmaban esa caída de rendimiento&period; Cherny cerró el debate como dando por resuelta la cuestión&comma; pero no parece que realmente lo esté&period;<&sol;p>&NewLine;<div class&equals;"article-asset-image article-asset-normal article-asset-center">&NewLine;<div class&equals;"asset-content">&NewLine; <a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;x&period;com&sol;trq212&sol;status&sol;2037254607001559305"><&sol;p>&NewLine;<p> <img alt&equals;"Captura De Pantalla 2026 04 15 A Las 11 20 18" class&equals;"centro&lowbar;sinmarco" src&equals;"https&colon;&sol;&sol;i&period;blogs&period;es&sol;6ec775&sol;captura-de-pantalla-2026-04-15-a-las-11&period;20&period;18&sol;450&lowbar;1000&period;jpeg"><br &sol;>&NewLine; <&sol;a><&sol;p><&sol;div>&NewLine;<&sol;div>&NewLine;<p><strong>Crisis de capacidad de cómputo<&sol;strong>&period; Thariq Shihipar&comma; del equipo de Claude Code&comma; reveló en marzo que Anthropic estaba <a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;x&period;com&sol;trq212&sol;status&sol;2037254607001559305">ajustando los límites de sesión de 5 horas<&sol;a> durante las horas pico&period; Es decir&colon; si había mucha demanda&comma; tus tokens de Claude probablemente se agotarían más rápido&period; Señaló que la medida en realidad solo la notarían el 7&percnt; de los usuarios &lpar;los más intensivos en esas horas punta&rpar;&comma; y <a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;x&period;com&sol;trq212&sol;status&sol;2037254609455243503">confesó<&sol;a> que "sé que esto es frustrante&period; Seguiremos invirtiendo en escalar la eficiencia"&period; Eso se contradice con un comentario en el debate sobre el post de Laurenzo en el que <a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;x&period;com&sol;trq212&sol;status&sol;2043023892579766290">explicó<&sol;a> que "no degradamos nuestros modelos para servir mejor la demanda&comma; lo he dicho muchas veces con anterioridad"&period; <&sol;p>&NewLine;<p><&excl;-- BREAK 5 --><&sol;p>&NewLine;<div class&equals;"article-asset-image article-asset-normal article-asset-center">&NewLine;<div class&equals;"asset-content">&NewLine; <a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;x&period;com&sol;RoundtableSpace&sol;status&sol;2043951135799627996"><&sol;p>&NewLine;<p> <img alt&equals;"Captura De Pantalla 2026 04 15 A Las 11 32 34" class&equals;"centro&lowbar;sinmarco" src&equals;"https&colon;&sol;&sol;i&period;blogs&period;es&sol;558bb0&sol;captura-de-pantalla-2026-04-15-a-las-11&period;32&period;34&sol;450&lowbar;1000&period;jpeg"><br &sol;>&NewLine; <&sol;a><&sol;p><&sol;div>&NewLine;<&sol;div>&NewLine;<p><strong>Más degradaciones<&sol;strong>&period; Aparecieron <a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;github&period;com&sol;anthropics&sol;claude-code&sol;issues&sol;46829">otros descubrimientos y críticas<&sol;a>&comma; como el de cómo la caché de prompts de Claude Code también se había reducido de forma drástica &lpar;de una hora a cinco minutos&rpar;&comma; disparando el consumo de cuota en sesiones largas de programación&period; Anthropic <a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;venturebeat&period;com&sol;technology&sol;is-anthropic-nerfing-claude-users-increasingly-report-performance">le indicó<&sol;a> a VentureBeat que las cuentas Team y Enterprise no se ven afectadas por esos límites de sesión&comma; pero el patrón parece cada vez más claro&colon; el cómputo escasea y hay que racionarlo&&num;8230&semi; o al menos eso es lo que parecen apuntar todas estas medidas de Anthropic&period; Lo que sigue sin estar claro es si la calidad del modelo realmente se ha visto degradada&comma; aunque hay <a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;www&period;reddit&period;com&sol;r&sol;ClaudeAI&sol;comments&sol;1s7f72l&sol;claude&lowbar;performance&lowbar;and&lowbar;bugs&lowbar;megathread&lowbar;ongoing&sol;">"megahilos" de Reddit<&sol;a> que apuntan también a esa dirección&period;<&sol;p>&NewLine;<p><&excl;-- BREAK 6 --><&sol;p>&NewLine;<div class&equals;"article-asset-image article-asset-normal article-asset-center">&NewLine;<div class&equals;"asset-content">&NewLine; <a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;x&period;com&sol;bcherny&sol;status&sol;2043163965648515234"><&sol;p>&NewLine;<p> <img alt&equals;"Captura De Pantalla 2026 04 15 A Las 11 26 21" class&equals;"centro&lowbar;sinmarco" src&equals;"https&colon;&sol;&sol;i&period;blogs&period;es&sol;1ae5e8&sol;captura-de-pantalla-2026-04-15-a-las-11&period;26&period;21&sol;450&lowbar;1000&period;jpeg"><br &sol;>&NewLine; <&sol;a><&sol;p><&sol;div>&NewLine;<&sol;div>&NewLine;<p><strong>De "nerfing"&comma; nada<&sol;strong>&period; Que una empresa degrade su servicio de forma premeditada se suele llamar "nerfing" <a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;x&period;com&sol;petergyang&sol;status&sol;2043466663258140685">en redes sociales<&sol;a>&comma; y las críticas en este sentido se fueron disparando en el caso de Anthropic&period; <a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;x&period;com&sol;alex&lowbar;prompter&sol;status&sol;2043251644620525859">Numerosas<&sol;a> <a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;x&period;com&sol;kimmonismus&sol;status&sol;2043052039413100660">publicaciones<&sol;a> de usuarios en X y <a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;fortune&period;com&sol;2026&sol;04&sol;14&sol;anthropic-claude-performance-decline-user-complaints-backlash-lack-of-transparency-accusations-compute-crunch&sol;">en medios<&sol;a> de <a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;venturebeat&period;com&sol;technology&sol;is-anthropic-nerfing-claude-users-increasingly-report-performance">tecnología<&sol;a> han hecho <a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;x&period;com&sol;tengyanAI&sol;status&sol;2043138374794666490">referencia<&sol;a> al estudio de Laurenzo y acusaban a Anthropic de esa degradación volunaria de sus modelos&period; Boris Cherny <a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;x&period;com&sol;bcherny&sol;status&sol;2043163965648515234">intervino al menos en un caso<&sol;a> para decir tajantamente que "Eso es falso" y para explicar que informaron de los cambios y de hecho dieron la opción a los usuarios de desactivarlo&period; <&sol;p>&NewLine;<p><&excl;-- BREAK 7 --><&sol;p>&NewLine;<p><strong>Pero el racionamiento existe<&sol;strong>&period; En The Wall Street Journal confirmaban que ese racionamiento del cómputo <a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;www&period;wsj&period;com&sol;tech&sol;ai&sol;ai-is-using-so-much-energy-that-computing-firepower-is-running-out-156e5c85">está ciertamente produciéndose<&sol;a> entre las plataformas de IA debido a la alta demanda&period; Un buen ejemplo de las consecuencias lo tenemos en David Hsu&comma; fundador y CEO de Retool&period; Explicó en dicho diario que aunque prefería Claude Opus 4&period;6 para potenciar su agente de IA&comma; tuvo que cambiar recientemente al modelo de OpenAI porque "Anthropic no para de caerse todo el tiempo"&period;<&sol;p>&NewLine;<p><strong>Los precios cambian &lpar;silenciosamente&rpar;<&sol;strong>&period; The Information indicó ayer que Anthropic está cambiando la forma de facturar a los usuarios de los planes Enterprise&period; En lugar de una suscripción de 200 dólares al mes con una "tarifa plana" de uso de sus modelos de IA&comma; lo que harán será cobrar una tarifa base de 20 dólares por usuario y mes y a eso le sumarán el consumo de cada usuario con el precio estándar de su API&period;  Su propia documentación actualizada <a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;support&period;claude&period;com&sol;en&sol;articles&sol;9797531-what-is-the-enterprise-plan&quest;ref&equals;implicator&period;ai">lo señala<&sol;a> &lpar;"El uso nno está incluido en la tarifa por asiento"&rpar; y se estima que el cambio puede doblar o incluso triplicar el coste usar Claude para usuarios intensivos&period; Desaparecen además los descuentos del 10 al 15&percnt; de la API que se incluían en el pasado y que permitían a las empresas escalar ese consumo de tokens de forma más asequible&period; Los precios por millón de tokens no han cambiado&comma; pero pasamos de una "tarifa plana" &lpar;con cuotas de uso&rpar; a un modelo de pago por uso&comma; mucho más caro para usuarios intensivos&period;<&sol;p>&NewLine;<p><&excl;-- BREAK 8 --><&sol;p>&NewLine;<div class&equals;"article-asset-video article-asset-normal">&NewLine;<div class&equals;"asset-content">&NewLine;<div class&equals;"base-asset-video">&NewLine;<div class&equals;"js-dailymotion"><&sol;div>&NewLine;<&sol;p><&sol;div>&NewLine;<&sol;p><&sol;div>&NewLine;<&sol;div>&NewLine;<p><strong>No es solo Anthropic<&sol;strong>&period; El movimiento de esta empresa no es algo aislado&period; OpenAI <a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;help&period;openai&period;com&sol;en&sol;articles&sol;20001106-codex-rate-card">cambió los precios de Codex<&sol;a> para alinearlo con el uso de tokens de API en lugar de facturar por mensaje&period; GitHub <a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;github&period;blog&sol;changelog&sol;2026-04-10-enforcing-new-limits-and-retiring-opus-4-6-fast-from-copilot-pro&sol;">publicó en su registro de cambios<&sol;a> que actualizaba los límites para equilibrar la capacidad porque el uso intensivo "provoca tensión en nuestra infraestructura compartida"&period; En marzo la plataforma Windsurf <a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;windsurf&period;com&sol;blog&sol;windsurf-pricing-plans">eliminó<&sol;a> su sistema de créditos en favor de cuotas diarias y semanales&comma; algo que fue <a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;www&period;reddit&period;com&sol;r&sol;windsurf&sol;comments&sol;1s1es3f&sol;windsurf&lowbar;is&lowbar;simply&lowbar;destroying&lowbar;its&lowbar;reputation&lowbar;with&sol;">criticado por los desarrolladores<&sol;a> que usaban el anterior sistema de facturacion "flexible"&period; Replit <a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;blog&period;replit&period;com&sol;pro-plan">hizo un cambio similar<&sol;a> que también fue <a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;www&period;linkedin&period;com&sol;pulse&sol;replits-pricing-change-really-trust-credits-nikhil-mishra-u0p4f&sol;">muy comentado<&sol;a> en redes sociales&period; <&sol;p>&NewLine;<p><&excl;-- BREAK 9 --><&sol;p>&NewLine;<p><strong>La barra libre se acabó<&sol;strong>&period; Las empresas de IA están dándose cuenta de que la demanda está creciendo más rápido de lo que pueden asumir&comma; y están ajustando la forma en la que ofrecen sus modelos y servicios para ajustarse a esa demanda&period; Lo malo es que para los usuarios y desarrolladores el efecto está siendo el mismo&colon; o sus tokens se les acaban antes&comma; o perciben que la IA ya no es tan buena como antes&period; <&sol;p>&NewLine;<p><&excl;-- BREAK 10 --><&sol;p>&NewLine;<p>En Xataka &vert; <a class&equals;"text-outboundlink" href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;economia-tokens-se-ha-roto-tarifas-planas-ia-para-programar-matematicamente-insostenibles" data-vars-post-title&equals;"La &OpenCurlyDoubleQuote;economía de los tokens” se ha roto&colon; las tarifas planas de IA para programar son matemáticamente insostenibles " data-vars-post-url&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;economia-tokens-se-ha-roto-tarifas-planas-ia-para-programar-matematicamente-insostenibles">La &OpenCurlyDoubleQuote;economía de los tokens” se ha roto&colon; las tarifas planas de IA para programar son matemáticamente insostenibles<&sol;a><&sol;p>&NewLine;<p> &&num;8211&semi; <br &sol;> La noticia<br &sol;>&NewLine; <a href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;anthropic-fue-dont-be-evil-ia-para-desarrolladores-ahora-esta-exprimiendo-a-todos&quest;utm&lowbar;source&equals;feedburner&amp&semi;utm&lowbar;medium&equals;feed&amp&semi;utm&lowbar;campaign&equals;15&lowbar;Apr&lowbar;2026"><br &sol;>&NewLine; <em> Anthropic fue el "don&&num;8217&semi;t be evil" de la IA para los desarrolladores&period; Ahora los está exprimiendo a todos <&sol;em><br &sol;>&NewLine; <&sol;a><br &sol;>&NewLine; fue publicada originalmente en<br &sol;>&NewLine; <a href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;&quest;utm&lowbar;source&equals;feedburner&amp&semi;utm&lowbar;medium&equals;feed&amp&semi;utm&lowbar;campaign&equals;15&lowbar;Apr&lowbar;2026"><br &sol;>&NewLine; <strong> Xataka <&sol;strong><br &sol;>&NewLine; <&sol;a><br &sol;>&NewLine; por <a href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;autor&sol;javier-pastor&quest;utm&lowbar;source&equals;feedburner&amp&semi;utm&lowbar;medium&equals;feed&amp&semi;utm&lowbar;campaign&equals;15&lowbar;Apr&lowbar;2026"><br &sol;>&NewLine; Javier Pastor<br &sol;>&NewLine; <&sol;a><br &sol;>&NewLine; &period; <&sol;p>&NewLine;<p> Claude Code y Claude Opus 4&period;6 detonaron una era dorada para los desarrolladores&comma; que se encontraron con un agente de IA y un modelo fantásticos para su trabajo&period; De repente OpenAI ya no era la empresa de moda&colon; lo era Anthropic&comma; que enamoró a usuarios y desarrolladores y se convirtió en la niña bonita de la IA&period; Meses después estamos viendo cómo Anthropic está haciendo cambios que están siendo muy criticados y que apuntan a algo que ya hemos visto en repetidas ocasiones&colon; las plataformas te conquistan e inevitablemente luego las plataformas te exprimen&period;<&sol;p>&NewLine;<p>El detonante&period; El 2 de abril de 2026&comma; Stella Laurenzo&comma; Senior Director en el grupo de IA de AMD&comma; publicó un texto en el repositorio de GitHub de Claude Code titulado "Claude Code es inútil para tareas de ingeniería complejas con las actualizaciones de febrero"&period; Esta directiva incluyó un análisis meticuloso de casi 6&period;600 sesiones reales de Claude Code con cerca de 235&period;000 llamadas a herramientas y uns 18&period;000 bloques de razonamiento en cuatro proyectos distintos&period; Las conclusiones eran para ella obvias&colon; el rendimiento de Claude Code y de Claude Opus 4&period;6 se habían degradado&period;<&sol;p>&NewLine;<p> En Xataka<&sol;p>&NewLine;<p> Anthropic dice que Claude Mythos es demasiado potente para hacerlo público&period; La pregunta es si esto no es más que un "que viene el lobo" <&sol;p>&NewLine;<p>Los números&period; En ese análisis se muestran según Laurenzo dos periodos&period; En el periodo bueno&comma; de enero a mediados de febrero&comma; el modelo leía 6&comma;6 archivos por cada archivo que editaba&period; En el periodo teóricamente degradado&comma; de marzo en adelante&comma; esa tasa había caído a 2&comma;0 archivos leídos&period; <br &sol;>&NewLine;Las ediciones de código en ficheros que Claude no había revisado recientemente pasaron del 6&comma;2&percnt; al 33&comma;7&percnt;&colon; uno de cada tres cambios al código los estaba haciendo "a ciegas"&period; Además se redujo la visibilidad del razonamiento&comma; de 2&period;200 caracteres a solo 600 de media&comma; pero hay algo más&period; Los costes del proceso se multiplicaron por 122 en el mismo periodo&comma; aunque es cierto que en ese periodo pasaron de usar 1-3 agentes concurrentes a usar 5-10&comma; lo que complica la interpretación de los datos&period;<&sol;p>&NewLine;<p>Anthropic trata de aclarar qué ha pasado&period; La respuesta oficial de Anthropic la publicó Boris Cherny&comma; responsable de Claude Code&period; Este ingeniero confirmó dos cambios de producto reales&colon; el 9 de febrero&comma; Opus 4&period;6 pasó a usar el llamado "razonamiento adaptativo" por defecto&period; El 3 de marzo&comma; el nivel de esfuerzo por defecto pasó de alto a medio&comma; situándose en el nivel 85 que Anthropic describe como "el mejor equilibrio entre inteligencia&comma; latencia y coste para la mayoría de los usuarios"&period;<br &sol;>&NewLine;Debate cerrado&period; Cherny también habló de esa sospecha de que ahora Claude estaba ocultando "cómo pensaba"&period; Explicó que el cambio en los registros de razonamiento  visible no es una degradación real&comma; y la cabecera detectada era simplemente una modificación de la interfaz de usado que ocultaba el razonamiento intermedio para reducir la latencia sin afectar el rendimiento del modelo&period; La propia Laurenzo ya había previsto algo así e intentó implementar soluciones para evitarlo pero sus datos confirmaban esa caída de rendimiento&period; Cherny cerró el debate como dando por resuelta la cuestión&comma; pero no parece que realmente lo esté&period;<&sol;p>&NewLine;<p>Crisis de capacidad de cómputo&period; Thariq Shihipar&comma; del equipo de Claude Code&comma; reveló en marzo que Anthropic estaba ajustando los límites de sesión de 5 horas durante las horas pico&period; Es decir&colon; si había mucha demanda&comma; tus tokens de Claude probablemente se agotarían más rápido&period; Señaló que la medida en realidad solo la notarían el 7&percnt; de los usuarios &lpar;los más intensivos en esas horas punta&rpar;&comma; y confesó que "sé que esto es frustrante&period; Seguiremos invirtiendo en escalar la eficiencia"&period; Eso se contradice con un comentario en el debate sobre el post de Laurenzo en el que explicó que "no degradamos nuestros modelos para servir mejor la demanda&comma; lo he dicho muchas veces con anterioridad"&period; <&sol;p>&NewLine;<p>Más degradaciones&period; Aparecieron otros descubrimientos y críticas&comma; como el de cómo la caché de prompts de Claude Code también se había reducido de forma drástica &lpar;de una hora a cinco minutos&rpar;&comma; disparando el consumo de cuota en sesiones largas de programación&period; Anthropic le indicó a VentureBeat que las cuentas Team y Enterprise no se ven afectadas por esos límites de sesión&comma; pero el patrón parece cada vez más claro&colon; el cómputo escasea y hay que racionarlo&&num;8230&semi; o al menos eso es lo que parecen apuntar todas estas medidas de Anthropic&period; Lo que sigue sin estar claro es si la calidad del modelo realmente se ha visto degradada&comma; aunque hay "megahilos" de Reddit que apuntan también a esa dirección&period;<&sol;p>&NewLine;<p>De "nerfing"&comma; nada&period; Que una empresa degrade su servicio de forma premeditada se suele llamar "nerfing" en redes sociales&comma; y las críticas en este sentido se fueron disparando en el caso de Anthropic&period; Numerosas publicaciones de usuarios en X y en medios de tecnología han hecho referencia al estudio de Laurenzo y acusaban a Anthropic de esa degradación volunaria de sus modelos&period; Boris Cherny intervino al menos en un caso para decir tajantamente que "Eso es falso" y para explicar que informaron de los cambios y de hecho dieron la opción a los usuarios de desactivarlo&period; <br &sol;>&NewLine;Pero el racionamiento existe&period; En The Wall Street Journal confirmaban que ese racionamiento del cómputo está ciertamente produciéndose entre las plataformas de IA debido a la alta demanda&period; Un buen ejemplo de las consecuencias lo tenemos en David Hsu&comma; fundador y CEO de Retool&period; Explicó en dicho diario que aunque prefería Claude Opus 4&period;6 para potenciar su agente de IA&comma; tuvo que cambiar recientemente al modelo de OpenAI porque "Anthropic no para de caerse todo el tiempo"&period;<br &sol;>&NewLine;Los precios cambian &lpar;silenciosamente&rpar;&period; The Information indicó ayer que Anthropic está cambiando la forma de facturar a los usuarios de los planes Enterprise&period; En lugar de una suscripción de 200 dólares al mes con una "tarifa plana" de uso de sus modelos de IA&comma; lo que harán será cobrar una tarifa base de 20 dólares por usuario y mes y a eso le sumarán el consumo de cada usuario con el precio estándar de su API&period;  Su propia documentación actualizada lo señala &lpar;"El uso nno está incluido en la tarifa por asiento"&rpar; y se estima que el cambio puede doblar o incluso triplicar el coste usar Claude para usuarios intensivos&period; Desaparecen además los descuentos del 10 al 15&percnt; de la API que se incluían en el pasado y que permitían a las empresas escalar ese consumo de tokens de forma más asequible&period; Los precios por millón de tokens no han cambiado&comma; pero pasamos de una "tarifa plana" &lpar;con cuotas de uso&rpar; a un modelo de pago por uso&comma; mucho más caro para usuarios intensivos&period;<&sol;p>&NewLine;<p>No es solo Anthropic&period; El movimiento de esta empresa no es algo aislado&period; OpenAI cambió los precios de Codex para alinearlo con el uso de tokens de API en lugar de facturar por mensaje&period; GitHub publicó en su registro de cambios que actualizaba los límites para equilibrar la capacidad porque el uso intensivo "provoca tensión en nuestra infraestructura compartida"&period; En marzo la plataforma Windsurf eliminó su sistema de créditos en favor de cuotas diarias y semanales&comma; algo que fue criticado por los desarrolladores que usaban el anterior sistema de facturacion "flexible"&period; Replit hizo un cambio similar que también fue muy comentado en redes sociales&period; <&sol;p>&NewLine;<p>La barra libre se acabó&period; Las empresas de IA están dándose cuenta de que la demanda está creciendo más rápido de lo que pueden asumir&comma; y están ajustando la forma en la que ofrecen sus modelos y servicios para ajustarse a esa demanda&period; Lo malo es que para los usuarios y desarrolladores el efecto está siendo el mismo&colon; o sus tokens se les acaban antes&comma; o perciben que la IA ya no es tan buena como antes&period; <&sol;p>&NewLine;<p>En Xataka &vert; La &OpenCurlyDoubleQuote;economía de los tokens” se ha roto&colon; las tarifas planas de IA para programar son matemáticamente insostenibles<&sol;p>&NewLine;<p> &&num;8211&semi; La noticia<&sol;p>&NewLine;<p> Anthropic fue el "don&&num;8217&semi;t be evil" de la IA para los desarrolladores&period; Ahora los está exprimiendo a todos <&sol;p>&NewLine;<p> fue publicada originalmente en<&sol;p>&NewLine;<p> Xataka <&sol;p>&NewLine;<p> por<br &sol;>&NewLine; Javier Pastor<&sol;p>&NewLine;<p> &period;   <&sol;p>&NewLine;

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Trending

Copyright 2025 ERM Digital. Todos los derechos reservados.