Ciencia y Tecnología
La guerra entre Anthropic y el Pentágono apunta a algo terrorífico: un nuevo “Momento Oppenheimer”
<p>
 <img src="https://i.blogs.es/fb354b/bomba-atomica/1024_2000.jpeg" alt="La guerra entre Anthropic y el Pentágono apunta a algo terrorífico: un nuevo “Momento Oppenheimer” ">
 </p>
<p>Anthropic <a class="text-outboundlink" href="https://www.xataka.com/robotica-e-ia/anthropic-tiene-lineas-rojas-para-su-ia-pentagono-acaba-exigir-que-borre-todas" data-vars-post-title="EEUU quiere que Claude espíe a sus ciudadanos y pueda matar sin supervisión humana. Anthropic se juega su futuro negándose" data-vars-post-url="https://www.xataka.com/robotica-e-ia/anthropic-tiene-lineas-rojas-para-su-ia-pentagono-acaba-exigir-que-borre-todas">se ha negado a ceder a las presiones del Pentágono</a>. Su cofundador y CEO, Dario Amodei, acaba de publicar <a rel="noopener, noreferrer" href="https://www.anthropic.com/news/statement-department-of-war">un comunicado</a> en el que deja claro que no están dispuestos a romper sus principios éticos. Nada de espionaje masivo con IA, nada de desarrollo de armas autónomas letales con sus modelos. Y eso nos recuerda un caso terrible: <a class="text-outboundlink" href="https://www.xataka.com/investigacion/proyecto-manhattan-supuso-dilema-etico-para-muchos-no-todos-siguieron-adelante-como-oppenheimer" data-vars-post-title="La bomba atómica supuso un dilema ético para muchos científicos. No todos siguieron adelante como Oppenheimer" data-vars-post-url="https://www.xataka.com/investigacion/proyecto-manhattan-supuso-dilema-etico-para-muchos-no-todos-siguieron-adelante-como-oppenheimer">el de la bomba atómica</a>.</p>
<p><!-- BREAK 1 --></p>
<p><strong>De héroe a villano</strong>. <a class="text-outboundlink" href="https://www.xataka.com/historia-tecnologica/oppenheimer-ha-pasado-a-historia-bomba-atomica-mejor-que-ha-hecho-tiene-que-ver-agujeros-negros" data-vars-post-title="Oppenheimer ha pasado a la historia por la bomba atómica, pero su mayor legado lo dejó en los agujeros negros" data-vars-post-url="https://www.xataka.com/historia-tecnologica/oppenheimer-ha-pasado-a-historia-bomba-atomica-mejor-que-ha-hecho-tiene-que-ver-agujeros-negros">J. Robert Oppenheimer</a> pasó de ser el &#8220;padre de la bomba atómica&#8221; y un héroe nacional a <a class="text-outboundlink" href="https://www.xataka.com/magnet/antes-disenar-bomba-atomica-robert-oppenheimer-tenia-otra-mision-financiar-a-republicanos-espanoles" data-vars-post-title="Antes de diseñar la bomba atómica, Robert Oppenheimer tenía otra misión: financiar a los republicanos españoles" data-vars-post-url="https://www.xataka.com/magnet/antes-disenar-bomba-atomica-robert-oppenheimer-tenia-otra-mision-financiar-a-republicanos-espanoles">convertirse</a> en un paria. Su pecado no fue la traición, sino su claridad moral. Tras <a class="text-outboundlink" href="https://www.xataka.com/investigacion/esta-larga-noche-como-se-vivio-dentro-realmente-primera-detonacion-nuclear-relatada-oppenheimer" data-vars-post-title="";Esta larga noche";: cómo se vivió desde dentro realmente la primera detonación nuclear relatada en 'Oppenheimer' " data-vars-post-url="https://www.xataka.com/investigacion/esta-larga-noche-como-se-vivio-dentro-realmente-primera-detonacion-nuclear-relatada-oppenheimer">presenciar el horror</a> de Hiroshima y Nagasaki, Oppenheimer trató desesperadamente de frenar la <a class="text-outboundlink" href="https://www.xataka.com/historia-tecnologica/bomba-atomica-al-primer-videojuego-como-william-higinbotham-fisico-proyecto-manhattan-creo-primer-juego-historia" data-vars-post-title="De la bomba atómica al primer videojuego: cómo William Higinbotham, físico en el Proyecto Manhattan, creó el primer juego de la historia" data-vars-post-url="https://www.xataka.com/historia-tecnologica/bomba-atomica-al-primer-videojuego-como-william-higinbotham-fisico-proyecto-manhattan-creo-primer-juego-historia">escalada atómica</a> y el desarrollo de la bomba de hidrógeno. </p>
<p><!-- BREAK 2 --></p>
<p><strong>O estás con nosotros, o contra nosotros</strong>. EEUU, que le había ensalzado en el pasado, aprovechó sus antiguas afiliaciones políticas y <a class="text-outboundlink" href="https://www.xataka.com/cine-y-tv/oppenheimer-triunfa-punto-vista-creativo-tiene-complicado-para-liderar-taquilla" data-vars-post-title="'Oppenheimer' es otro triunfo visual y creativo de Nolan. Uno que puede asfixiar a los espectadores" data-vars-post-url="https://www.xataka.com/cine-y-tv/oppenheimer-triunfa-punto-vista-creativo-tiene-complicado-para-liderar-taquilla">le despojó de todos sus privilegios e influencia</a>. Aquello demostró cómo el gobierno estadounidense decidió sin más que el conocimiento científico era propiedad del estado y que cualquier investigador que intentara proponer límites éticos a sus propios proyectos sería tratado como un enemigo de la patria. </p>
<p><!-- BREAK 3 --></p>
<p>La historia está amenazando con repetirse estos días.</p>
<div class="article-asset article-asset-normal article-asset-center">
<div class="desvio-container">
<div class="desvio">
<div class="desvio-figure js-desvio-figure">
 <a href="https://www.xataka.com/robotica-e-ia/eeuu-tiene-mensaje-para-empresas-ia-caso-necesidad-esa-ia-estado" class="pivot-outboundlink" data-vars-post-title="Anthropic y OpenAI han desarrollado la IA. El Pentágono de EEUU les está mostrando quién es su dueño realmente"><br />
 <img alt="Anthropic y OpenAI han desarrollado la IA. El Pentágono de EEUU les está mostrando quién es su dueño realmente" width="375" height="142" src="https://i.blogs.es/8b10e6/x-47a_first_flight_-189-358h-/375_142.jpeg"><br />
 </a>
 </div>
<div class="desvio-summary">
<div class="desvio-taxonomy js-desvio-taxonomy">
 <a href="https://www.xataka.com/robotica-e-ia/eeuu-tiene-mensaje-para-empresas-ia-caso-necesidad-esa-ia-estado" class="desvio-taxonomy-anchor pivot-outboundlink" data-vars-post-title="Anthropic y OpenAI han desarrollado la IA. El Pentágono de EEUU les está mostrando quién es su dueño realmente">En Xataka</a>
 </div>
<p> <a href="https://www.xataka.com/robotica-e-ia/eeuu-tiene-mensaje-para-empresas-ia-caso-necesidad-esa-ia-estado" class="desvio-title js-desvio-title pivot-outboundlink" data-vars-post-title="Anthropic y OpenAI han desarrollado la IA. El Pentágono de EEUU les está mostrando quién es su dueño realmente">Anthropic y OpenAI han desarrollado la IA. El Pentágono de EEUU les está mostrando quién es su dueño realmente</a>
 </div>
</p></div>
</p></div>
</div>
<p><strong>De Oppenheimer a Anthropic</strong>. Lo está haciendo con un protagonista que sigue ahí —el Gobierno de EEUU— y otro que cambia: quien defiende ahora la ética de un proyecto científico-tecnológico no es Oppenheimer, sino Dario Amodei, CEO de Anthropic. </p>
<p><!-- BREAK 4 --></p>
<p><strong>Claude es cada vez más vital en el Gobierno de EEUU</strong>. Su empresa está estos días entre la espada y la pared. Anthropic logró que su modelo Claude se convirtiera en la niña bonita del Gobierno de EEUU. La capacidad de esta IA ha demostrado ser tan notable que al parecer fue utilizado para planificar el <a class="text-outboundlink" href="https://www.xataka.com/otros/alguien-aposto-30-000-dolares-a-que-maduro-caia-noche-anterior-a-que-cayera-ha-ganado-400-000-dolares" data-vars-post-title="Alguien apostó 30.000 dólares a que Maduro caía la noche anterior a que cayera. Ha ganado 400.000 dólares" data-vars-post-url="https://www.xataka.com/otros/alguien-aposto-30-000-dolares-a-que-maduro-caia-noche-anterior-a-que-cayera-ha-ganado-400-000-dolares">arresto del expresidente de Venezuela</a>, Nicolás Maduro. </p>
<p><!-- BREAK 5 --></p>
<p><strong>Líneas rojas</strong>. Pero para que el Pentágono pudiese utilizar Claude, Anthropic <a rel="noopener, noreferrer" href="https://www.wsj.com/politics/national-security/woke-ai-spat-escalates-between-pentagon-and-anthropic-433b7c5c">impuso</a> ciertas líneas rojas. Nada de usarlo para vigilancia masiva de ciudadanos de EEUU, y nada de usarlo para desarrollo de armas letales autónomas. Y al Pentágono han acabado por no gustarle esas líneas rojas, así que quiere eliminarlas y usar Claude como le venga en gana siempre y cuando, dicen, se respete la Constitución y las leyes estadounidenses.</p>
<p><!-- BREAK 6 --></p>
<p><strong>El Pentágono quiere una IA sin cortapisas</strong>. Eso ha acabado provocando una situación enormemente tensa estos días. El Pentágono amenazó con castigar a Anthropic si no cedía a sus pretensiones, y esas amenazas del Departamento de Defensa no han sido sutiles en absoluto. De hecho, han sugerido que podrían calificar a Anthropic como una empresa que es &#8220;un riesgo para la cadena de suministro&#8221;, una etiqueta negra que normalmente se reserva para empresas de países rivales como China o Rusia.</p>
<p><!-- BREAK 7 --></p>
<p><strong>Contradicción</strong>. El propio Dario Amodei <a rel="noopener, noreferrer" href="https://www.anthropic.com/news/statement-department-of-war">explicaba en una entrada</a> en el blog oficial de la empresa que esas dos amenazas eran autoexcluyentes: &#8220;Estas dos últimas amenazas son inherentemente contradictorias: una nos etiqueta como un riesgo para la seguridad; la otra etiqueta a Claude como esencial para la seguridad nacional&#8221;.</p>
<p><!-- BREAK 8 --></p>
<p><strong>¿Se puede nacionalizar la IA?</strong> Es una ironía inquietante: el mismo gobierno que considera que Claude es una herramienta esencial para la seguridad nacional está dispuesto a calificar a sus creadores como una amenaza pública si no entregan las llaves del reino y de su IA. Lo que quieren el Departamento de Defensa y el Pentágono es básicamente &#8220;nacionalizar&#8221; la tecnología de IA desarrollada por Anthropic y apropiarse de ella como ya hicieron con la tecnología que dio lugar a la bomba atómica. Sabemos cómo acabó aquello.</p>
<p><!-- BREAK 9 --></p>
<div class="article-asset-video article-asset-normal">
<div class="asset-content">
<div class="base-asset-video">
<div class="js-dailymotion"></div>
</p></div>
</p></div>
</div>
<p><strong>Anthropic se niega a ceder</strong>. El peligro es enorme en ambos apartados: la vigilancia masiva, más que defender la democracia puede dinamitarla desde dentro, y <a class="text-outboundlink" href="https://www.xataka.com/privacidad/nsa-un-compendio-del-escandalo" data-vars-post-title="NSA: un compendio del escándalo" data-vars-post-url="https://www.xataka.com/privacidad/nsa-un-compendio-del-escandalo">el escándalo de la NSA</a> es un buen ejemplo. Pero más preocupante incluso es la intención del Pentágono de usar esta IA para desarrollar armas letales autónomas. Amodei insistía en este punto indicando que &#8220;Los modelos fundacionales de IA <a class="text-outboundlink" href="https://www.xataka.com/robotica-e-ia/derecho-internacional-fue-escrito-pensando-humanos-que-deciden-ia-acaba-romper-esa-cadena-nadie-sabe-quien-responde-ahora" data-vars-post-title="Un soldado puede y debe desobedecer una orden ilegal. El problema al que se asoma Anthropic es que una IA no" data-vars-post-url="https://www.xataka.com/robotica-e-ia/derecho-internacional-fue-escrito-pensando-humanos-que-deciden-ia-acaba-romper-esa-cadena-nadie-sabe-quien-responde-ahora">simplemente no son lo suficientemente fiables</a> como para impulsar armas totalmente autónomas. No proporcionaremos, a sabiendas, un producto que ponga en riesgo a los combatientes y civiles estadounidenses&#8221;.</p>
<p><!-- BREAK 10 --></p>
<p>Amodei incluso ofrece al Departamento de Guerra/Defensa <a rel="noopener, noreferrer" href="https://www.theguardian.com/us-news/2026/feb/24/anthropic-claude-military-ai">ayudar</a> en la &#8220;transición a otro proveedor&#8221; de modelos de IA, pero de momento no está claro qué camino tomará el gobierno estadounidense. </p>
<p><!-- BREAK 11 --></p>
<p><strong>Momento Oppenheimer</strong>. Si el Pentágono finalmente <a class="text-outboundlink" href="https://www.xataka.com/empresas-y-economia/anthropic-ha-abandonado-su-principio-importante-no-pausara-modelos-peligrosos-competencia-saca-antes" data-vars-post-title="Dario Amodei fundó Anthropic porque OpenAI no se tomaba en serio los riesgos de la IA. Ahora va a ceder a esos riesgos" data-vars-post-url="https://www.xataka.com/empresas-y-economia/anthropic-ha-abandonado-su-principio-importante-no-pausara-modelos-peligrosos-competencia-saca-antes">ejecuta su amenaza</a> y veta a Anthropic, el mensaje para la industria será escalofriante. En la era de la IA no hay objetores de conciencia: si una empresa desarrolla una ventaja tecnológica y estratégica a nivel militar, esa empresa queda a merced del Estado. Es un nuevo y terrorífico &#8220;Momento Oppenheimer&#8221; que condiciona el futuro no ya de Anthropic, sino del propio desarrollo de modelos de IA.</p>
<p><!-- BREAK 12 --></p>
<p>En Xataka | <a class="text-outboundlink" href="https://www.xataka.com/robotica-e-ia/mundo-esta-peligro-responsable-seguridad-anthropic-abandona-empresa-para-dedicarse-a-escribir-poesia" data-vars-post-title='"El mundo está en peligro": el responsable de seguridad de Anthropic abandona la empresa para dedicarse a escribir poesía' data-vars-post-url="https://www.xataka.com/robotica-e-ia/mundo-esta-peligro-responsable-seguridad-anthropic-abandona-empresa-para-dedicarse-a-escribir-poesia">&#8220;El mundo está en peligro&#8221;: el responsable de seguridad de Anthropic abandona la empresa para dedicarse a escribir poesía</a></p>
<p></p>
<p> &#8211; <br /> La noticia<br />
 <a href="https://www.xataka.com/robotica-e-ia/guerra-anthropic-pentagono-apunta-a-algo-terrorifico-nuevo-momento-oppenheimer?utm_source=feedburner&;utm_medium=feed&;utm_campaign=27_Feb_2026"><br />
 <em> La guerra entre Anthropic y el Pentágono apunta a algo terrorífico: un nuevo “Momento Oppenheimer” </em><br />
 </a><br />
 fue publicada originalmente en<br />
 <a href="https://www.xataka.com/?utm_source=feedburner&;utm_medium=feed&;utm_campaign=27_Feb_2026"><br />
 <strong> Xataka </strong><br />
 </a><br />
 por <a href="https://www.xataka.com/autor/javier-pastor?utm_source=feedburner&;utm_medium=feed&;utm_campaign=27_Feb_2026"><br />
 Javier Pastor<br />
 </a><br />
 . </p>
<p>​Anthropic se ha negado a ceder a las presiones del Pentágono. Su cofundador y CEO, Dario Amodei, acaba de publicar un comunicado en el que deja claro que no están dispuestos a romper sus principios éticos. Nada de espionaje masivo con IA, nada de desarrollo de armas autónomas letales con sus modelos. Y eso nos recuerda un caso terrible: el de la bomba atómica.</p>
<p>De héroe a villano. J. Robert Oppenheimer pasó de ser el &#8220;padre de la bomba atómica&#8221; y un héroe nacional a convertirse en un paria. Su pecado no fue la traición, sino su claridad moral. Tras presenciar el horror de Hiroshima y Nagasaki, Oppenheimer trató desesperadamente de frenar la escalada atómica y el desarrollo de la bomba de hidrógeno. </p>
<p>O estás con nosotros, o contra nosotros. EEUU, que le había ensalzado en el pasado, aprovechó sus antiguas afiliaciones políticas y le despojó de todos sus privilegios e influencia. Aquello demostró cómo el gobierno estadounidense decidió sin más que el conocimiento científico era propiedad del estado y que cualquier investigador que intentara proponer límites éticos a sus propios proyectos sería tratado como un enemigo de la patria. </p>
<p>La historia está amenazando con repetirse estos días.</p>
<p> En Xataka</p>
<p> Anthropic y OpenAI han desarrollado la IA. El Pentágono de EEUU les está mostrando quién es su dueño realmente</p>
<p>De Oppenheimer a Anthropic. Lo está haciendo con un protagonista que sigue ahí —el Gobierno de EEUU— y otro que cambia: quien defiende ahora la ética de un proyecto científico-tecnológico no es Oppenheimer, sino Dario Amodei, CEO de Anthropic. </p>
<p>Claude es cada vez más vital en el Gobierno de EEUU. Su empresa está estos días entre la espada y la pared. Anthropic logró que su modelo Claude se convirtiera en la niña bonita del Gobierno de EEUU. La capacidad de esta IA ha demostrado ser tan notable que al parecer fue utilizado para planificar el arresto del expresidente de Venezuela, Nicolás Maduro. </p>
<p>Líneas rojas. Pero para que el Pentágono pudiese utilizar Claude, Anthropic impuso ciertas líneas rojas. Nada de usarlo para vigilancia masiva de ciudadanos de EEUU, y nada de usarlo para desarrollo de armas letales autónomas. Y al Pentágono han acabado por no gustarle esas líneas rojas, así que quiere eliminarlas y usar Claude como le venga en gana siempre y cuando, dicen, se respete la Constitución y las leyes estadounidenses.</p>
<p>El Pentágono quiere una IA sin cortapisas. Eso ha acabado provocando una situación enormemente tensa estos días. El Pentágono amenazó con castigar a Anthropic si no cedía a sus pretensiones, y esas amenazas del Departamento de Defensa no han sido sutiles en absoluto. De hecho, han sugerido que podrían calificar a Anthropic como una empresa que es &#8220;un riesgo para la cadena de suministro&#8221;, una etiqueta negra que normalmente se reserva para empresas de países rivales como China o Rusia.</p>
<p>Contradicción. El propio Dario Amodei explicaba en una entrada en el blog oficial de la empresa que esas dos amenazas eran autoexcluyentes: &#8220;Estas dos últimas amenazas son inherentemente contradictorias: una nos etiqueta como un riesgo para la seguridad; la otra etiqueta a Claude como esencial para la seguridad nacional&#8221;.</p>
<p>¿Se puede nacionalizar la IA? Es una ironía inquietante: el mismo gobierno que considera que Claude es una herramienta esencial para la seguridad nacional está dispuesto a calificar a sus creadores como una amenaza pública si no entregan las llaves del reino y de su IA. Lo que quieren el Departamento de Defensa y el Pentágono es básicamente &#8220;nacionalizar&#8221; la tecnología de IA desarrollada por Anthropic y apropiarse de ella como ya hicieron con la tecnología que dio lugar a la bomba atómica. Sabemos cómo acabó aquello.</p>
<p>Anthropic se niega a ceder. El peligro es enorme en ambos apartados: la vigilancia masiva, más que defender la democracia puede dinamitarla desde dentro, y el escándalo de la NSA es un buen ejemplo. Pero más preocupante incluso es la intención del Pentágono de usar esta IA para desarrollar armas letales autónomas. Amodei insistía en este punto indicando que &#8220;Los modelos fundacionales de IA simplemente no son lo suficientemente fiables como para impulsar armas totalmente autónomas. No proporcionaremos, a sabiendas, un producto que ponga en riesgo a los combatientes y civiles estadounidenses&#8221;.</p>
<p>Amodei incluso ofrece al Departamento de Guerra/Defensa ayudar en la &#8220;transición a otro proveedor&#8221; de modelos de IA, pero de momento no está claro qué camino tomará el gobierno estadounidense. </p>
<p>Momento Oppenheimer. Si el Pentágono finalmente ejecuta su amenaza y veta a Anthropic, el mensaje para la industria será escalofriante. En la era de la IA no hay objetores de conciencia: si una empresa desarrolla una ventaja tecnológica y estratégica a nivel militar, esa empresa queda a merced del Estado. Es un nuevo y terrorífico &#8220;Momento Oppenheimer&#8221; que condiciona el futuro no ya de Anthropic, sino del propio desarrollo de modelos de IA.</p>
<p>En Xataka | &#8220;El mundo está en peligro&#8221;: el responsable de seguridad de Anthropic abandona la empresa para dedicarse a escribir poesía</p>
<p> &#8211; La noticia</p>
<p> La guerra entre Anthropic y el Pentágono apunta a algo terrorífico: un nuevo “Momento Oppenheimer” </p>
<p> fue publicada originalmente en</p>
<p> Xataka </p>
<p> por<br />
 Javier Pastor</p>
<p> . </p>
<p>​ </p>
<p>​ </p>