Ciencia y Tecnología
EEUU intentó tratar a Anthropic como si fuera una empresa enemiga por negarse a armar su IA. La jueza acaba de frenarlo
<p>
 <img src="https://i.blogs.es/256d82/anthropic/1024_2000.jpeg" alt="EEUU intentó tratar a Anthropic como si fuera una empresa enemiga por negarse a armar su IA. La jueza acaba de frenarlo">
 </p>
<p>Hay un nuevo capítulo en el encontronazo entre Anthropic y el Pentágono, y es uno que no debe haber sentado muy bien en la administración Trump. Tras declararla "un riesgo para la cadena de suministro" (<a class="text-outboundlink" href="https://www.xataka.com/robotica-e-ia/guerra-anthropic-pentagono-apunta-a-algo-terrorifico-nuevo-momento-oppenheimer" data-vars-post-title="La guerra entre Anthropic y el Pentágono apunta a algo terrorífico: un nuevo “Momento Oppenheimer” " data-vars-post-url="https://www.xataka.com/robotica-e-ia/guerra-anthropic-pentagono-apunta-a-algo-terrorifico-nuevo-momento-oppenheimer">meterla en la lista negra</a>, vaya), <a class="text-outboundlink" href="https://www.xataka.com/empresas-y-economia/pentagono-etiqueto-a-anthropic-como-riesgo-para-seguridad-nacional-asi-que-anthropic-ha-demandado-al-pentagono" data-vars-post-title='Tras entrar en la "lista negra", Anthropic ha recurrido a una medida desesperada: llevar al Pentágono a juicio' data-vars-post-url="https://www.xataka.com/empresas-y-economia/pentagono-etiqueto-a-anthropic-como-riesgo-para-seguridad-nacional-asi-que-anthropic-ha-demandado-al-pentagono">Anthropic acudió a los tribunales</a> y ahora la jueza acaba de darles la razón, por lo que la orden ha sido paralizada. </p>
<p><!-- BREAK 1 --></p>
<p><strong>Qué ha pasado</strong>. La administración Trump buscaba castigar a Anthropic tras <a class="text-outboundlink" href="https://www.xataka.com/robotica-e-ia/anthropic-tiene-lineas-rojas-para-su-ia-pentagono-acaba-exigir-que-borre-todas" data-vars-post-title="EEUU quiere que Claude espíe a sus ciudadanos y pueda matar sin supervisión humana. Anthropic se juega su futuro negándose" data-vars-post-url="https://www.xataka.com/robotica-e-ia/anthropic-tiene-lineas-rojas-para-su-ia-pentagono-acaba-exigir-que-borre-todas">negarse a que su IA fuera utilizada en armas autónomas letales </a>y vigilancia masiva, pero la jueza Rita Lin, del distrito norte de California, <a rel="noopener, noreferrer" href="https://www.ft.com/content/db1392dc-5042-4ed4-873e-f826429b5f0e?syn-25a6b1a6=1">acaba de bloquear la orden</a>. La jueza ha solicitado al gobierno un informe, que deberán presentar antes del 6 de abril, en el que detallen cómo han cumplido su resolución. El gobierno tiene siete días para apelar.</p>
<div class="article-asset article-asset-normal article-asset-center">
<div class="desvio-container">
<div class="desvio">
<div class="desvio-figure js-desvio-figure">
 <a href="https://www.xataka.com/robotica-e-ia/derecho-internacional-fue-escrito-pensando-humanos-que-deciden-ia-acaba-romper-esa-cadena-nadie-sabe-quien-responde-ahora" class="pivot-outboundlink" data-vars-post-title="Un soldado puede y debe desobedecer una orden ilegal. El problema al que se asoma Anthropic es que una IA no"><br />
 <img alt="Un soldado puede y debe desobedecer una orden ilegal. El problema al que se asoma Anthropic es que una IA no" width="375" height="142" src="https://i.blogs.es/0e1a33/claude-en-guerra-2/375_142.jpeg"><br />
 </a>
 </div>
<div class="desvio-summary">
<div class="desvio-taxonomy js-desvio-taxonomy">
 <a href="https://www.xataka.com/robotica-e-ia/derecho-internacional-fue-escrito-pensando-humanos-que-deciden-ia-acaba-romper-esa-cadena-nadie-sabe-quien-responde-ahora" class="desvio-taxonomy-anchor pivot-outboundlink" data-vars-post-title="Un soldado puede y debe desobedecer una orden ilegal. El problema al que se asoma Anthropic es que una IA no">En Xataka</a>
 </div>
<p> <a href="https://www.xataka.com/robotica-e-ia/derecho-internacional-fue-escrito-pensando-humanos-que-deciden-ia-acaba-romper-esa-cadena-nadie-sabe-quien-responde-ahora" class="desvio-title js-desvio-title pivot-outboundlink" data-vars-post-title="Un soldado puede y debe desobedecer una orden ilegal. El problema al que se asoma Anthropic es que una IA no">Un soldado puede y debe desobedecer una orden ilegal. El problema al que se asoma Anthropic es que una IA no</a>
 </div>
</p></div>
</p></div>
</div>
<p><strong>"Idea orwelliana"</strong>. La jueza es bastante dura con la decisión del gobierno. Considera que es una jugada "arbitraria y caprichosa" y que "ninguna disposición de la ley aplicable respalda la idea orwelliana de que una empresa estadounidense pueda ser tachada de adversario potencial y saboteador de los Estados Unidos por expresar su desacuerdo con el Gobierno". Además, indica que si el problema es que no confían en la IA de Anthropic "el Departamento de Guerra podría simplemente dejar de utilizar a Claude". No va a sentar demasiado bien en la administración Trump.</p>
<p><!-- BREAK 2 --></p>
<p>En su orden también menciona el "prejuicio financiero y reputacional" al que quedaría expuesta Anthropic si se aplica esta medida, argumentando que podría dejar a la empresa paralizada. </p>
<div class="article-asset-video article-asset-normal">
<div class="asset-content">
<div class="base-asset-video">
<div class="js-dailymotion"></div>
</p></div>
</p></div>
</div>
<p><strong>Por qué es importante</strong>. Es la primera vez que se aplica una restricción de este calibre a una empresa doméstica. El riesgo para la cadena de suministro se define como "el riesgo de que un adversario pueda sabotear o subvertir un sistema cubierto", pero lo que ha pasado aquí es que se ha usado como un castigo ante un desacuerdo. Además, si la orden se aplicase, Anthropic quedaría aislada comercialmente al prohibirle trabajar, no sólo con agencias civiles, sino también con empresas privadas que quisieran trabajar con el departamento de defensa. </p>
<p><!-- BREAK 3 --></p>
<p><strong>Y ahora qué</strong>. Varios <a rel="noopener, noreferrer" href="https://www.lawfaremedia.org/article/pentagon's-anthropic-designation-won't-survive-first-contact-with-legal-system">expertos jurídicos</a> ya advirtieron que la decisión no sobreviviría al escrutinio jurídico y así ha sido. Esta decisión supone una victoria para Anthropic, que en un comunicado ha asegurado que "Nuestro objetivo sigue siendo colaborar de forma constructiva con el Gobierno para garantizar que todos los estadounidenses se beneficien de una IA segura y fiable". La cuestión ahora es cuál será el siguiente paso de la administración Trump, que de momento no se ha pronunciado al respecto.</p>
<p>En Xataka | <a class="text-outboundlink" href="https://www.xataka.com/robotica-e-ia/openai-dice-que-su-acuerdo-pentagono-totalmente-seguro-su-forma-convencernos-confia-nosotros" data-vars-post-title="OpenAI dice que su acuerdo con el Pentágono es seguro. En serio, de verdad, tienes que creértelo, fíate, te lo asegura" data-vars-post-url="https://www.xataka.com/robotica-e-ia/openai-dice-que-su-acuerdo-pentagono-totalmente-seguro-su-forma-convencernos-confia-nosotros" target="_blank">OpenAI dice que su acuerdo con el Pentágono es seguro. En serio, de verdad, tienes que creértelo, fíate, te lo asegura</a></p>
<p>Imagen | Anthropic, editada</p>
<p> &#8211; <br /> La noticia<br />
 <a href="https://www.xataka.com/robotica-e-ia/eeuu-intento-tratar-a-anthropic-como-fuera-empresa-enemiga-negarse-a-armar-su-ia-jueza-acaba-frenarlo?utm_source=feedburner&;utm_medium=feed&;utm_campaign=27_Mar_2026"><br />
 <em> EEUU intentó tratar a Anthropic como si fuera una empresa enemiga por negarse a armar su IA. La jueza acaba de frenarlo </em><br />
 </a><br />
 fue publicada originalmente en<br />
 <a href="https://www.xataka.com/?utm_source=feedburner&;utm_medium=feed&;utm_campaign=27_Mar_2026"><br />
 <strong> Xataka </strong><br />
 </a><br />
 por <a href="https://www.xataka.com/autor/amparo-babiloni?utm_source=feedburner&;utm_medium=feed&;utm_campaign=27_Mar_2026"><br />
 Amparo Babiloni<br />
 </a><br />
 . </p>
<p> Hay un nuevo capítulo en el encontronazo entre Anthropic y el Pentágono, y es uno que no debe haber sentado muy bien en la administración Trump. Tras declararla "un riesgo para la cadena de suministro" (meterla en la lista negra, vaya), Anthropic acudió a los tribunales y ahora la jueza acaba de darles la razón, por lo que la orden ha sido paralizada. <br />
Qué ha pasado. La administración Trump buscaba castigar a Anthropic tras negarse a que su IA fuera utilizada en armas autónomas letales y vigilancia masiva, pero la jueza Rita Lin, del distrito norte de California, acaba de bloquear la orden. La jueza ha solicitado al gobierno un informe, que deberán presentar antes del 6 de abril, en el que detallen cómo han cumplido su resolución. El gobierno tiene siete días para apelar.</p>
<p> En Xataka</p>
<p> Un soldado puede y debe desobedecer una orden ilegal. El problema al que se asoma Anthropic es que una IA no</p>
<p>"Idea orwelliana". La jueza es bastante dura con la decisión del gobierno. Considera que es una jugada "arbitraria y caprichosa" y que "ninguna disposición de la ley aplicable respalda la idea orwelliana de que una empresa estadounidense pueda ser tachada de adversario potencial y saboteador de los Estados Unidos por expresar su desacuerdo con el Gobierno". Además, indica que si el problema es que no confían en la IA de Anthropic "el Departamento de Guerra podría simplemente dejar de utilizar a Claude". No va a sentar demasiado bien en la administración Trump.<br />
En su orden también menciona el "prejuicio financiero y reputacional" al que quedaría expuesta Anthropic si se aplica esta medida, argumentando que podría dejar a la empresa paralizada. </p>
<p>Por qué es importante. Es la primera vez que se aplica una restricción de este calibre a una empresa doméstica. El riesgo para la cadena de suministro se define como "el riesgo de que un adversario pueda sabotear o subvertir un sistema cubierto", pero lo que ha pasado aquí es que se ha usado como un castigo ante un desacuerdo. Además, si la orden se aplicase, Anthropic quedaría aislada comercialmente al prohibirle trabajar, no sólo con agencias civiles, sino también con empresas privadas que quisieran trabajar con el departamento de defensa. <br />
Y ahora qué. Varios expertos jurídicos ya advirtieron que la decisión no sobreviviría al escrutinio jurídico y así ha sido. Esta decisión supone una victoria para Anthropic, que en un comunicado ha asegurado que "Nuestro objetivo sigue siendo colaborar de forma constructiva con el Gobierno para garantizar que todos los estadounidenses se beneficien de una IA segura y fiable". La cuestión ahora es cuál será el siguiente paso de la administración Trump, que de momento no se ha pronunciado al respecto.<br />
En Xataka | OpenAI dice que su acuerdo con el Pentágono es seguro. En serio, de verdad, tienes que creértelo, fíate, te lo asegura<br />
Imagen | Anthropic, editada</p>
<p> &#8211; La noticia</p>
<p> EEUU intentó tratar a Anthropic como si fuera una empresa enemiga por negarse a armar su IA. La jueza acaba de frenarlo </p>
<p> fue publicada originalmente en</p>
<p> Xataka </p>
<p> por<br />
 Amparo Babiloni</p>
<p> . </p>