Ciencia y Tecnología

Han secuestrado agentes de Anthropic, Google y Microsoft por el bien de la ciencia. Las tres empresas acabaron pagando

Published

on

<p>&NewLine; <img src&equals;"https&colon;&sol;&sol;i&period;blogs&period;es&sol;82d438&sol;hacker-portada&sol;1024&lowbar;2000&period;jpeg" alt&equals;"Han secuestrado agentes de Anthropic&comma; Google y Microsoft por el bien de la ciencia&period; Las tres empresas acabaron pagando ">&NewLine; <&sol;p>&NewLine;<p>En algunos equipos de desarrollo ya se está volviendo habitual apoyarse en <a class&equals;"text-outboundlink" href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;basics&sol;ai-agents-agentes-ia-que-componentes-que-tipos-existen-inteligencia-artificial" data-vars-post-title&equals;"AI Agents o Agentes de IA&colon; qué son&comma; componentes y qué tipos existen en la inteligencia artificial" data-vars-post-url&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;basics&sol;ai-agents-agentes-ia-que-componentes-que-tipos-existen-inteligencia-artificial">agentes de inteligencia artificial<&sol;a> para revisar incidencias&comma; analizar cambios en el código y moverse por tareas que antes quedaban en manos humanas&period; El problema aparece cuando esos sistemas no solo leen información que puede venir de fuera&comma; sino que además operan en espacios donde conviven <strong>claves&comma; tokens y permisos sensibles<&sol;strong>&period; Eso es lo que pone sobre la mesa una investigación reciente&colon; no estamos simplemente ante una herramienta útil que puede equivocarse&comma; sino ante una arquitectura que también puede volverse peligrosa si se despliega sin límites muy claros&period;<&sol;p>&NewLine;<p><&excl;-- BREAK 1 --><&sol;p>&NewLine;<p>La alarma la ha encendido <a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;oddguan&period;com&sol;">Aonan Guan<&sol;a> y los investigadores de Johns Hopkins Zhengyu Liu y Gavin Zhong tras demostrar ataques contra tres agentes desplegados en la mencionada plataforma&colon; Claude Code Security Review&comma; de Anthropic&comma; Gemini CLI Action&comma; de Google&comma; y GitHub Copilot Agent&comma; una herramienta de GitHub bajo Microsoft&period; <a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;oddguan&period;com&sol;blog&sol;comment-and-control-prompt-injection-credential-theft-claude-code-gemini-cli-github-copilot&sol;">Según su documentación&comma;<&sol;a> los fallos fueron comunicados de forma coordinada y acabaron en recompensas económicas pagadas por las compañías&comma; pero lo relevante es que apuntan a un problema más amplio&period;<&sol;p>&NewLine;<h2>Así lograron torcer a los agentes desde dentro<&sol;h2>&NewLine;<p>El nombre que Guan le pone al hallazgo ayuda bastante a entender de qué va todo esto&colon; &OpenCurlyDoubleQuote;Comment and Control”&period; La idea es sencilla de explicar&comma; aunque el fondo no lo sea tanto&period; En vez de montar una infraestructura externa para dirigir el ataque&comma; el propio GitHub hace de canal de entrada y de salida&colon; el atacante <strong>deja la instrucción en un título<&sol;strong>&comma; una incidencia o un comentario&comma; el agente la procesa como si formara parte del trabajo normal y el resultado termina reapareciendo dentro de ese mismo entorno&period; Todo queda en casa&comma; y precisamente ahí está la clave del problema&period;<&sol;p>&NewLine;<p><&excl;-- BREAK 2 --><&sol;p>&NewLine;<div class&equals;"article-asset-video article-asset-normal">&NewLine;<div class&equals;"asset-content">&NewLine;<div class&equals;"base-asset-video">&NewLine;<div class&equals;"js-dailymotion"><&sol;div>&NewLine;<&sol;p><&sol;div>&NewLine;<&sol;p><&sol;div>&NewLine;<&sol;div>&NewLine;<p>Y ese &OpenCurlyDoubleQuote;todo queda en casa” no es un detalle menor&comma; sino la base de lo que describe la investigación&period; Los tres agentes comparten una lógica muy parecida&colon; leen contenido normal de GitHub&comma; lo incorporan como contexto de trabajo y&comma; a partir de ahí&comma; ejecutan acciones dentro de flujos automatizados&period; El choque aparece porque ese mismo espacio no solo contiene texto enviado por terceros&comma; sino también herramientas&comma; permisos y secretos que el agente necesita para operar&period;<&sol;p>&NewLine;<p><&excl;-- BREAK 3 --><&sol;p>&NewLine;<p>El primer caso que detalla Guan afecta a Claude Code Security Review&comma; una acción de GitHub de Anthropic pensada para revisar cambios de código y buscar posibles fallos de seguridad&period; Hasta aquí&comma; todo entra dentro de lo esperable&period; El problema&comma; según explica el investigador&comma; es que bastaba con introducir instrucciones maliciosas en el título de una <em>pull request<&sol;em>&comma; que es la solicitud que alguien envía para proponer cambios en un proyecto&comma; para que <strong>el agente ejecutara comandos<&sol;strong> y devolviera el resultado como si formara parte de su revisión&period; Después&comma; el equipo logró ir un paso más allá y demostrar que también podía extraer credenciales del entorno&period;<&sol;p>&NewLine;<p>Lo interesante es que el mismo esquema también apareció en los otros dos servicios&comma; aunque con matices&period; En Google&comma; Gemini CLI Action podía ser empujado a revelar la GEMINI&lowbar;API&lowbar;KEY a partir de instrucciones coladas en una incidencia y en sus comentarios&semi; en GitHub Copilot Agent&comma; la variante era todavía más preocupante&comma; porque el ataque se escondía en un comentario HTML que una persona no veía en pantalla&comma; pero el agente sí procesaba cuando otra persona lo asignaba al caso&period; En ambos escenarios&comma; el fondo volvía a ser el mismo&colon; contenido aparentemente normal que acababa torciendo el comportamiento del sistema hasta exponer credenciales o información sensible dentro del propio GitHub&period;<&sol;p>&NewLine;<p><&excl;-- BREAK 4 --><&sol;p>&NewLine;<div class&equals;"article-asset-image article-asset-normal article-asset-center">&NewLine;<div class&equals;"asset-content">&NewLine;<p> <img alt&equals;"Claude Code Api Key Leak" class&equals;"centro&lowbar;sinmarco" src&equals;"https&colon;&sol;&sol;i&period;blogs&period;es&sol;1e1f8b&sol;claude-code-api-key-leak&sol;450&lowbar;1000&period;png"><&sol;p><&sol;div>&NewLine;<&sol;div>&NewLine;<p>Guan asegura que el patrón permitió filtrar claves de API&comma; tokens de GitHub y otros secretos expuestos en el entorno donde corría el agente&comma; es decir&comma; justo las credenciales que luego pueden abrir la puerta a acciones bastante más delicadas&period; ¿A quién afecta esto&quest; Sobre todo a repositorios que ejecutan agentes en <strong>GitHub Actions<&sol;strong> sobre contenido enviado por colaboradores no fiables y&comma; además&comma; les dan acceso a secretos o herramientas potentes&period; El propio investigador matiza que el riesgo depende mucho de la configuración&colon; por defecto GitHub no expone secretos a las <em>pull requests<&sol;em> desde <em>forks<&sol;em>&comma; pero sí existen despliegues que abren esa puerta&period;<&sol;p>&NewLine;<p><&excl;-- BREAK 5 --><&sol;p>&NewLine;<p>Y aquí aparece otra capa del asunto&comma; menos técnica pero igual de importante&period; <a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;www&period;theregister&period;com&sol;2026&sol;04&sol;15&sol;claude&lowbar;gemini&lowbar;copilot&lowbar;agents&lowbar;hijacked&sol;">Según publicó The Register<&sol;a>&comma; Anthropic&comma; Google y GitHub acabaron pagando recompensas por los hallazgos&comma; pero ninguna de las tres había publicado avisos públicos ni asignado <a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;www&period;redhat&period;com&sol;en&sol;topics&sol;security&sol;what-is-cve">CVE<&sol;a> en el momento de esa información&period; Guan fue bastante claro al respecto&colon; dijo saber &OpenCurlyDoubleQuote;con certeza” que algunos usuarios seguían anclados a versiones vulnerables y advirtió de que&comma; sin una comunicación visible&comma; muchos podían no enterarse nunca de que estaban expuestos o incluso siendo atacados&period; Así que aunque hubo mitigaciones y cambios en documentación o en el tratamiento interno de los reportes&comma; no existó un aviso público equivalente para todos los posibles afectados&period;<&sol;p>&NewLine;<ul>&NewLine;<li>Anthropic resolvió el caso el 25 de noviembre de 2025 y pagó 100 dólares<&sol;li>&NewLine;<li>Google recompensó el hallazgo el 20 de enero de 2026 con 1&period;337 dólares<&sol;li>&NewLine;<li>GitHub cerró el caso el 9 de marzo de 2026 con un pago de 500 dólares<&sol;li>&NewLine;<&sol;ul>&NewLine;<p>Lo que vuelve este caso especialmente delicado es que GitHub no parece el final del camino&comma; sino más bien el primer escaparate visible&period; Guan sostiene que el mismo patrón probablemente puede reproducirse en otros agentes que trabajan con herramientas y secretos dentro de flujos automáticos&comma; y ahí menciona <strong>desde bots conectados a Slack hasta agentes de Jira<&sol;strong>&comma; correo o automatización de despliegues&period; La lógica vuelve a ser la misma&colon; si el sistema tiene que leer contenido externo para hacer su trabajo y&comma; además&comma; cuenta con acceso suficiente para actuar&comma; el terreno queda abonado para que alguien intente torcerlo desde dentro&period;<&sol;p>&NewLine;<p><&excl;-- BREAK 6 --><&sol;p>&NewLine;<div class&equals;"article-asset article-asset-normal article-asset-center">&NewLine;<div class&equals;"desvio-container">&NewLine;<div class&equals;"desvio">&NewLine;<div class&equals;"desvio-figure js-desvio-figure">&NewLine; <a href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;seguridad&sol;cada-cuanto-debemos-cambiar-todas-nuestras-contrasenas-tres-expertos-ciberseguridad" class&equals;"pivot-outboundlink" data-vars-post-title&equals;"Cada cuánto debemos cambiar TODAS nuestras contraseñas según tres expertos en ciberseguridad"><br &sol;>&NewLine; <img alt&equals;"Cada cuánto debemos cambiar TODAS nuestras contraseñas según tres expertos en ciberseguridad" width&equals;"375" height&equals;"142" src&equals;"https&colon;&sol;&sol;i&period;blogs&period;es&sol;c6d2d1&sol;contrasena-portada1&sol;375&lowbar;142&period;jpeg"><br &sol;>&NewLine; <&sol;a>&NewLine; <&sol;div>&NewLine;<div class&equals;"desvio-summary">&NewLine;<div class&equals;"desvio-taxonomy js-desvio-taxonomy">&NewLine; <a href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;seguridad&sol;cada-cuanto-debemos-cambiar-todas-nuestras-contrasenas-tres-expertos-ciberseguridad" class&equals;"desvio-taxonomy-anchor pivot-outboundlink" data-vars-post-title&equals;"Cada cuánto debemos cambiar TODAS nuestras contraseñas según tres expertos en ciberseguridad">En Xataka<&sol;a>&NewLine; <&sol;div>&NewLine;<p> <a href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;seguridad&sol;cada-cuanto-debemos-cambiar-todas-nuestras-contrasenas-tres-expertos-ciberseguridad" class&equals;"desvio-title js-desvio-title pivot-outboundlink" data-vars-post-title&equals;"Cada cuánto debemos cambiar TODAS nuestras contraseñas según tres expertos en ciberseguridad">Cada cuánto debemos cambiar TODAS nuestras contraseñas según tres expertos en ciberseguridad<&sol;a>&NewLine; <&sol;div>&NewLine;<&sol;p><&sol;div>&NewLine;<&sol;p><&sol;div>&NewLine;<&sol;div>&NewLine;<p>La conclusión a la que llega Guan no pasa por vender una solución mágica&comma; sino por volver a una idea bastante clásica en seguridad&colon; dar a cada sistema solo lo imprescindible para hacer su trabajo&period; Si un agente revisa código&comma; no debería tener acceso a herramientas o secretos que no necesita&semi; si se limita a resumir incidencias&comma; tampoco tendría sentido que pudiera escribir en GitHub o tocar credenciales sensibles&period; Por eso insiste en pensar estos despliegues con lógica de mínimo privilegio y listas de permisos muy cerradas&period;<&sol;p>&NewLine;<p><&excl;-- BREAK 7 --><&sol;p>&NewLine;<p>Imágenes &vert; DC Studio &vert; Aonan Guan<&sol;p>&NewLine;<p>En Xataka &vert; <a class&equals;"text-outboundlink" href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;eeuu-ha-nombrado-tenientes-coroneles-a-directivos-meta-palantir-openai-tenemos-muchas-preguntas" data-vars-post-title&equals;"La IA es crucial para el ejército de EEUU&period; Así que está nombrando tenientes generales a líderes de OpenAI y Palantir" data-vars-post-url&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;eeuu-ha-nombrado-tenientes-coroneles-a-directivos-meta-palantir-openai-tenemos-muchas-preguntas">La IA es crucial para el ejército de EEUU&period; Así que está nombrando tenientes generales a líderes de OpenAI y Palantir<&sol;a><&sol;p>&NewLine;<p> &&num;8211&semi; <br &sol;> La noticia<br &sol;>&NewLine; <a href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;seguridad&sol;han-secuestrado-agentes-anthropic-google-microsoft-bien-ciencia-tres-empresas-acabaron-pagando&quest;utm&lowbar;source&equals;feedburner&amp&semi;utm&lowbar;medium&equals;feed&amp&semi;utm&lowbar;campaign&equals;17&lowbar;Apr&lowbar;2026"><br &sol;>&NewLine; <em> Han secuestrado agentes de Anthropic&comma; Google y Microsoft por el bien de la ciencia&period; Las tres empresas acabaron pagando <&sol;em><br &sol;>&NewLine; <&sol;a><br &sol;>&NewLine; fue publicada originalmente en<br &sol;>&NewLine; <a href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;&quest;utm&lowbar;source&equals;feedburner&amp&semi;utm&lowbar;medium&equals;feed&amp&semi;utm&lowbar;campaign&equals;17&lowbar;Apr&lowbar;2026"><br &sol;>&NewLine; <strong> Xataka <&sol;strong><br &sol;>&NewLine; <&sol;a><br &sol;>&NewLine; por <a href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;autor&sol;javier-marquez&quest;utm&lowbar;source&equals;feedburner&amp&semi;utm&lowbar;medium&equals;feed&amp&semi;utm&lowbar;campaign&equals;17&lowbar;Apr&lowbar;2026"><br &sol;>&NewLine; Javier Marquez<br &sol;>&NewLine; <&sol;a><br &sol;>&NewLine; &period; <&sol;p>&NewLine;<p> En algunos equipos de desarrollo ya se está volviendo habitual apoyarse en agentes de inteligencia artificial para revisar incidencias&comma; analizar cambios en el código y moverse por tareas que antes quedaban en manos humanas&period; El problema aparece cuando esos sistemas no solo leen información que puede venir de fuera&comma; sino que además operan en espacios donde conviven claves&comma; tokens y permisos sensibles&period; Eso es lo que pone sobre la mesa una investigación reciente&colon; no estamos simplemente ante una herramienta útil que puede equivocarse&comma; sino ante una arquitectura que también puede volverse peligrosa si se despliega sin límites muy claros&period;<br &sol;>&NewLine;La alarma la ha encendido Aonan Guan y los investigadores de Johns Hopkins Zhengyu Liu y Gavin Zhong tras demostrar ataques contra tres agentes desplegados en la mencionada plataforma&colon; Claude Code Security Review&comma; de Anthropic&comma; Gemini CLI Action&comma; de Google&comma; y GitHub Copilot Agent&comma; una herramienta de GitHub bajo Microsoft&period; Según su documentación&comma; los fallos fueron comunicados de forma coordinada y acabaron en recompensas económicas pagadas por las compañías&comma; pero lo relevante es que apuntan a un problema más amplio&period;<br &sol;>&NewLine;Así lograron torcer a los agentes desde dentro<br &sol;>&NewLine;El nombre que Guan le pone al hallazgo ayuda bastante a entender de qué va todo esto&colon; &OpenCurlyDoubleQuote;Comment and Control”&period; La idea es sencilla de explicar&comma; aunque el fondo no lo sea tanto&period; En vez de montar una infraestructura externa para dirigir el ataque&comma; el propio GitHub hace de canal de entrada y de salida&colon; el atacante deja la instrucción en un título&comma; una incidencia o un comentario&comma; el agente la procesa como si formara parte del trabajo normal y el resultado termina reapareciendo dentro de ese mismo entorno&period; Todo queda en casa&comma; y precisamente ahí está la clave del problema&period;<&sol;p>&NewLine;<p>Y ese &OpenCurlyDoubleQuote;todo queda en casa” no es un detalle menor&comma; sino la base de lo que describe la investigación&period; Los tres agentes comparten una lógica muy parecida&colon; leen contenido normal de GitHub&comma; lo incorporan como contexto de trabajo y&comma; a partir de ahí&comma; ejecutan acciones dentro de flujos automatizados&period; El choque aparece porque ese mismo espacio no solo contiene texto enviado por terceros&comma; sino también herramientas&comma; permisos y secretos que el agente necesita para operar&period;<br &sol;>&NewLine;El primer caso que detalla Guan afecta a Claude Code Security Review&comma; una acción de GitHub de Anthropic pensada para revisar cambios de código y buscar posibles fallos de seguridad&period; Hasta aquí&comma; todo entra dentro de lo esperable&period; El problema&comma; según explica el investigador&comma; es que bastaba con introducir instrucciones maliciosas en el título de una pull request&comma; que es la solicitud que alguien envía para proponer cambios en un proyecto&comma; para que el agente ejecutara comandos y devolviera el resultado como si formara parte de su revisión&period; Después&comma; el equipo logró ir un paso más allá y demostrar que también podía extraer credenciales del entorno&period;<br &sol;>&NewLine;Lo interesante es que el mismo esquema también apareció en los otros dos servicios&comma; aunque con matices&period; En Google&comma; Gemini CLI Action podía ser empujado a revelar la GEMINI&lowbar;API&lowbar;KEY a partir de instrucciones coladas en una incidencia y en sus comentarios&semi; en GitHub Copilot Agent&comma; la variante era todavía más preocupante&comma; porque el ataque se escondía en un comentario HTML que una persona no veía en pantalla&comma; pero el agente sí procesaba cuando otra persona lo asignaba al caso&period; En ambos escenarios&comma; el fondo volvía a ser el mismo&colon; contenido aparentemente normal que acababa torciendo el comportamiento del sistema hasta exponer credenciales o información sensible dentro del propio GitHub&period;<&sol;p>&NewLine;<p>Guan asegura que el patrón permitió filtrar claves de API&comma; tokens de GitHub y otros secretos expuestos en el entorno donde corría el agente&comma; es decir&comma; justo las credenciales que luego pueden abrir la puerta a acciones bastante más delicadas&period; ¿A quién afecta esto&quest; Sobre todo a repositorios que ejecutan agentes en GitHub Actions sobre contenido enviado por colaboradores no fiables y&comma; además&comma; les dan acceso a secretos o herramientas potentes&period; El propio investigador matiza que el riesgo depende mucho de la configuración&colon; por defecto GitHub no expone secretos a las pull requests desde forks&comma; pero sí existen despliegues que abren esa puerta&period;<br &sol;>&NewLine;Y aquí aparece otra capa del asunto&comma; menos técnica pero igual de importante&period; Según publicó The Register&comma; Anthropic&comma; Google y GitHub acabaron pagando recompensas por los hallazgos&comma; pero ninguna de las tres había publicado avisos públicos ni asignado CVE en el momento de esa información&period; Guan fue bastante claro al respecto&colon; dijo saber &OpenCurlyDoubleQuote;con certeza” que algunos usuarios seguían anclados a versiones vulnerables y advirtió de que&comma; sin una comunicación visible&comma; muchos podían no enterarse nunca de que estaban expuestos o incluso siendo atacados&period; Así que aunque hubo mitigaciones y cambios en documentación o en el tratamiento interno de los reportes&comma; no existó un aviso público equivalente para todos los posibles afectados&period;<br &sol;>&NewLine;Anthropic resolvió el caso el 25 de noviembre de 2025 y pagó 100 dólaresGoogle recompensó el hallazgo el 20 de enero de 2026 con 1&period;337 dólaresGitHub cerró el caso el 9 de marzo de 2026 con un pago de 500 dólares<br &sol;>&NewLine;Lo que vuelve este caso especialmente delicado es que GitHub no parece el final del camino&comma; sino más bien el primer escaparate visible&period; Guan sostiene que el mismo patrón probablemente puede reproducirse en otros agentes que trabajan con herramientas y secretos dentro de flujos automáticos&comma; y ahí menciona desde bots conectados a Slack hasta agentes de Jira&comma; correo o automatización de despliegues&period; La lógica vuelve a ser la misma&colon; si el sistema tiene que leer contenido externo para hacer su trabajo y&comma; además&comma; cuenta con acceso suficiente para actuar&comma; el terreno queda abonado para que alguien intente torcerlo desde dentro&period;<&sol;p>&NewLine;<p> En Xataka<&sol;p>&NewLine;<p> Cada cuánto debemos cambiar TODAS nuestras contraseñas según tres expertos en ciberseguridad<&sol;p>&NewLine;<p>La conclusión a la que llega Guan no pasa por vender una solución mágica&comma; sino por volver a una idea bastante clásica en seguridad&colon; dar a cada sistema solo lo imprescindible para hacer su trabajo&period; Si un agente revisa código&comma; no debería tener acceso a herramientas o secretos que no necesita&semi; si se limita a resumir incidencias&comma; tampoco tendría sentido que pudiera escribir en GitHub o tocar credenciales sensibles&period; Por eso insiste en pensar estos despliegues con lógica de mínimo privilegio y listas de permisos muy cerradas&period;<br &sol;>&NewLine;Imágenes &vert; DC Studio &vert; Aonan Guan<br &sol;>&NewLine;En Xataka &vert; La IA es crucial para el ejército de EEUU&period; Así que está nombrando tenientes generales a líderes de OpenAI y Palantir<&sol;p>&NewLine;<p> &&num;8211&semi; La noticia<&sol;p>&NewLine;<p> Han secuestrado agentes de Anthropic&comma; Google y Microsoft por el bien de la ciencia&period; Las tres empresas acabaron pagando <&sol;p>&NewLine;<p> fue publicada originalmente en<&sol;p>&NewLine;<p> Xataka <&sol;p>&NewLine;<p> por<br &sol;>&NewLine; Javier Marquez<&sol;p>&NewLine;<p> &period;   <&sol;p>&NewLine;

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Trending

Copyright 2025 ERM Digital. Todos los derechos reservados.