Ciencia y Tecnología
Anthropic tenía hasta hoy para decidir si se mantenía fiel a sus principios o cedía al Pentágono: ha elegido lo más arriesgado
<p>
 <img src="https://i.blogs.es/863f6e/dario-amodei/1024_2000.jpeg" alt="Anthropic tenía hasta hoy para decidir si se mantenía fiel a sus principios o cedía al Pentágono: ha elegido lo más arriesgado">
 </p>
<p>17:01 de este viernes 27 de febrero. Esa fue la fecha límite que Estados Unidos dio a Anthropic para que<a class="text-outboundlink" href="https://www.xataka.com/robotica-e-ia/anthropic-tiene-lineas-rojas-para-su-ia-pentagono-acaba-exigir-que-borre-todas" data-vars-post-title="EEUU quiere que Claude espíe a sus ciudadanos y pueda matar sin supervisión humana. Anthropic se juega su futuro negándose" data-vars-post-url="https://www.xataka.com/robotica-e-ia/anthropic-tiene-lineas-rojas-para-su-ia-pentagono-acaba-exigir-que-borre-todas"> concediera plenos poderes al Pentágono</a> sobre el uso de su IA. Es su softwate el que está plenamente integrado con <a class="text-outboundlink" href="https://www.xataka.com/robotica-e-ia/palantir-vale-que-coca-cola-decima-parte-ingresos-wall-street-ha-perdido-cabeza-ia" data-vars-post-title="La apuesta más arriesgada de Wall Street tiene nombre propio: Palantir, un castillo en el aire sostenido por promesas de IA" data-vars-post-url="https://www.xataka.com/robotica-e-ia/palantir-vale-que-coca-cola-decima-parte-ingresos-wall-street-ha-perdido-cabeza-ia">Palantir</a> y los sistemas del Departamento de Defensa, pero EEUU cree que tiene un problema: Anthropic ha atado a su IA a <a class="text-outboundlink" href="https://www.xataka.com/robotica-e-ia/anthropic-vive-momento-dulce-ha-tomado-decision-que-amenaza-comprometer-su-futuro-no-a-todo-uso-militar" data-vars-post-title="Anthropic vive un momento dulce pero ha tomado una decisión que amenaza con comprometer su futuro: no a todo el uso militar" data-vars-post-url="https://www.xataka.com/robotica-e-ia/anthropic-vive-momento-dulce-ha-tomado-decision-que-amenaza-comprometer-su-futuro-no-a-todo-uso-militar">unas reglas morales</a> que no deberían existir. Así que esta semana Defensa les envió un mensaje: o les dan una IA sin cortapisas o habrá consecuencias.</p>
<p><!-- BREAK 1 --></p>
<p>Y Anthropic ha <a rel="noopener, noreferrer" href="https://www.anthropic.com/news/statement-department-of-war">respondido</a> con un rotundo &#8220;no&#8221;.</p>
<p><strong>Roce monumental</strong>. Aquí no estamos ante un conflicto entre empresas: es una empresa contra su Gobierno. Anthropic ofreció su IA al Pentágono para que éste la integrara en sus sistemas. Lo hizo a un precio simbólico: un dólar. El Pentágono aceptó y la respuesta fue un contrato de 200 millones de dólares. El Departamento de Defensa empezó a <a class="text-outboundlink" href="https://www.xataka.com/empresas-y-economia/anthropic-ha-abandonado-su-principio-importante-no-pausara-modelos-peligrosos-competencia-saca-antes" data-vars-post-title="Dario Amodei fundó Anthropic porque OpenAI no se tomaba en serio los riesgos de la IA. Ahora va a ceder a esos riesgos" data-vars-post-url="https://www.xataka.com/empresas-y-economia/anthropic-ha-abandonado-su-principio-importante-no-pausara-modelos-peligrosos-competencia-saca-antes">integrar la IA de Anthropic en sus sistemas</a>, con todo lo que ello conlleva: acceso total a documentos a los que nadie fuera del Pentágono puede acceder.</p>
<p><!-- BREAK 2 --></p>
<p>EEUU también quiere que <a class="text-outboundlink" href="https://www.xataka.com/otros/alguien-aposto-30-000-dolares-a-que-maduro-caia-noche-anterior-a-que-cayera-ha-ganado-400-000-dolares" data-vars-post-title="Alguien apostó 30.000 dólares a que Maduro caía la noche anterior a que cayera. Ha ganado 400.000 dólares" data-vars-post-url="https://www.xataka.com/otros/alguien-aposto-30-000-dolares-a-que-maduro-caia-noche-anterior-a-que-cayera-ha-ganado-400-000-dolares">sea una herramienta de campo</a>, pero hay un problema: esa IA está ‘programada’ para que no pueda usarse para la vigilancia masiva de ciudadanos estadounidenses, para el desarrollo de armas o para el uso de armamento autónomo. Es, precisamente, lo que quiere hacer el Pentágono. El Secretario de Defensa mandó un mensaje a Anthropic: o les dan una IA sin límites <a class="text-outboundlink" href="https://www.xataka.com/empresas-y-economia/eeuu-se-intento-cargar-a-huawei-a-base-vetos-respuesta-huawei-muchisimas-gracias-todo" data-vars-post-title="EEUU se intentó cargar a Huawei a base de vetos. La respuesta de Huawei: muchísimas gracias por todo " data-vars-post-url="https://www.xataka.com/empresas-y-economia/eeuu-se-intento-cargar-a-huawei-a-base-vetos-respuesta-huawei-muchisimas-gracias-todo">o les hacen un Huawei</a>.</p>
<p><!-- BREAK 3 --></p>
<div class="article-asset article-asset-normal article-asset-center">
<div class="desvio-container">
<div class="desvio">
<div class="desvio-figure js-desvio-figure">
 <a href="https://www.xataka.com/robotica-e-ia/eeuu-tiene-mensaje-para-empresas-ia-caso-necesidad-esa-ia-estado" class="pivot-outboundlink" data-vars-post-title="Anthropic y OpenAI han desarrollado la IA. El Pentágono de EEUU les está mostrando quién es su dueño realmente"><br />
 <img alt="Anthropic y OpenAI han desarrollado la IA. El Pentágono de EEUU les está mostrando quién es su dueño realmente" width="375" height="142" src="https://i.blogs.es/8b10e6/x-47a_first_flight_-189-358h-/375_142.jpeg"><br />
 </a>
 </div>
<div class="desvio-summary">
<div class="desvio-taxonomy js-desvio-taxonomy">
 <a href="https://www.xataka.com/robotica-e-ia/eeuu-tiene-mensaje-para-empresas-ia-caso-necesidad-esa-ia-estado" class="desvio-taxonomy-anchor pivot-outboundlink" data-vars-post-title="Anthropic y OpenAI han desarrollado la IA. El Pentágono de EEUU les está mostrando quién es su dueño realmente">En Xataka</a>
 </div>
<p> <a href="https://www.xataka.com/robotica-e-ia/eeuu-tiene-mensaje-para-empresas-ia-caso-necesidad-esa-ia-estado" class="desvio-title js-desvio-title pivot-outboundlink" data-vars-post-title="Anthropic y OpenAI han desarrollado la IA. El Pentágono de EEUU les está mostrando quién es su dueño realmente">Anthropic y OpenAI han desarrollado la IA. El Pentágono de EEUU les está mostrando quién es su dueño realmente</a>
 </div>
</p></div>
</p></div>
</div>
<p><strong>Estos son mis principios</strong>. Dario Amodei, CEO de la compañía, ha <a rel="noopener, noreferrer" href="https://www.anthropic.com/news/statement-department-of-war">respondido</a> hoy en el blog de Anthropic. Su frase inicial es potente: “creo profundamente en la importancia existencial de usar la IA para defender Estados Unidos y a otras democracias para derrotar a nuestros adversarios autocráticos”. Buen inicio para lo que parece ser una declaración en la que da su brazo a torcer, pero… no.</p>
<p><!-- BREAK 4 --></p>
<p>Tras un repaso de lo que han “cedido” para que su IA esté en los sistemas del Departamento de Defensa y criticar que EEUU saque la carta de la <a rel="noopener, noreferrer" href="https://en.wikipedia.org/wiki/Defense_Production_Act_of_1950">Ley de Producción de Defensa de 1950</a> para aterrorizar a una Anthropic que este año saldrá a bolsa, la resolución es firme: “no podemos acceder en buena conciencia a la petición”. La compañía tiene claro que su IA puede ser de mucha ayuda al Gobierno, pero sigue oponiéndose, principalmente, a dos usos concretos:</p>
<p><!-- BREAK 5 --></p>
<ul>
<li>El espionaje masivo contra ciudadanos de EEUU, porque la IA puede armar bases de datos completas de la vida de cualquier persona.</li>
<li>El uso de armas letales autónomas en las que no se puede confiar para la toma de decisiones, ya que no tienen el juicio que sí tiene un soldado profesional. Una IA no cuestiona, no tiene remordimientos, no se pregunta si está bien o mal o si el objetivo es un falso positivo. <a class="text-outboundlink" href="https://www.xataka.com/robotica-e-ia/derecho-internacional-fue-escrito-pensando-humanos-que-deciden-ia-acaba-romper-esa-cadena-nadie-sabe-quien-responde-ahora" data-vars-post-title="Un soldado puede y debe desobedecer una orden ilegal. El problema al que se asoma Anthropic es que una IA no" data-vars-post-url="https://www.xataka.com/robotica-e-ia/derecho-internacional-fue-escrito-pensando-humanos-que-deciden-ia-acaba-romper-esa-cadena-nadie-sabe-quien-responde-ahora">Una IA… ejecuta</a>.</li>
</ul>
<div class="article-asset-video article-asset-normal">
<div class="asset-content">
<div class="base-asset-video">
<div class="js-dailymotion"></div>
</p></div>
</p></div>
</div>
<p><strong>Hemos dado el pecho por vosotros</strong>. En el comunicado, Amodei lanza casi una suplica, un “con todo lo que te he dado”, afirmando que ese compromiso con el liderazgo de Estados Unidos ha sido contra los intereses de la propia compañía. Apuntan que han renunciado a “varios cientos de millones de dólares para impedir que Claude se use en empresas vinculadas al Partido Comunista Chino” y que eso costó algunos ataques por parte de China, con algunas de <a class="text-outboundlink" href="https://www.xataka.com/robotica-e-ia/ia-campo-batalla-anthropic-acaba-acusar-a-deepseek-a-otras-empresas-chinas-destilar-claude" data-vars-post-title="La IA ya es un campo de batalla: Anthropic acaba de acusar a DeepSeek y a otras empresas chinas de “destilar” Claude" data-vars-post-url="https://www.xataka.com/robotica-e-ia/ia-campo-batalla-anthropic-acaba-acusar-a-deepseek-a-otras-empresas-chinas-destilar-claude">sus empresas intentando abusar de Claude</a>.</p>
<p><!-- BREAK 6 --></p>
<p>Y es una carta abierta, una declaración de intenciones que ha sido <a rel="noopener, noreferrer" href="https://notdivided.org/">respaldada</a> por empleados de la competencia. Por 219 de Google y por otros 65 de OpenAI. Muchos han dado sus nombres, otros muchos han firmado bajo el anonimato, pero todos con el mismo objetivo: rechazar las demandas del Departamento de Defensa para usar sus modelos para la vigilancia masiva y “matar de forma autónoma a personas sin supervisión humana”.</p>
<div class="article-asset article-asset-normal article-asset-center">
<div class="desvio-container">
<div class="desvio">
<div class="desvio-figure js-desvio-figure">
 <a href="https://www.xataka.com/robotica-e-ia/mundo-esta-peligro-responsable-seguridad-anthropic-abandona-empresa-para-dedicarse-a-escribir-poesia" class="pivot-outboundlink" data-vars-post-title='"El mundo está en peligro": el responsable de seguridad de Anthropic abandona la empresa para dedicarse a escribir poesía'><br />
 <img alt='"El mundo está en peligro": el responsable de seguridad de Anthropic abandona la empresa para dedicarse a escribir poesía' width="375" height="142" src="https://i.blogs.es/effc80/anthropic-y-la-poesia/375_142.jpeg"><br />
 </a>
 </div>
<div class="desvio-summary">
<div class="desvio-taxonomy js-desvio-taxonomy">
 <a href="https://www.xataka.com/robotica-e-ia/mundo-esta-peligro-responsable-seguridad-anthropic-abandona-empresa-para-dedicarse-a-escribir-poesia" class="desvio-taxonomy-anchor pivot-outboundlink" data-vars-post-title='"El mundo está en peligro": el responsable de seguridad de Anthropic abandona la empresa para dedicarse a escribir poesía'>En Xataka</a>
 </div>
<p> <a href="https://www.xataka.com/robotica-e-ia/mundo-esta-peligro-responsable-seguridad-anthropic-abandona-empresa-para-dedicarse-a-escribir-poesia" class="desvio-title js-desvio-title pivot-outboundlink" data-vars-post-title='"El mundo está en peligro": el responsable de seguridad de Anthropic abandona la empresa para dedicarse a escribir poesía'>&#8220;El mundo está en peligro&#8221;: el responsable de seguridad de Anthropic abandona la empresa para dedicarse a escribir poesía</a>
 </div>
</p></div>
</p></div>
</div>
<div class="article-asset-summary article-asset-normal article-asset-center">
<div class="asset-content">
<div class="sumario">&#8220;En cualquier caso, estas amenazas no cambian nuestra posición: no podemos acceder en buena conciencia a su petición&#8221;</div>
</p></div>
</div>
<p><strong>No hay término medio</strong>. Por muy bonita y romántica que suene la declaración de los empleados de Google y OpenAI, la realidad es otra. Están echando un pulso al Gobierno, un Gobierno que continuamente está demostrando que se ejecuta lo que ellos quieren (ICE, los movimientos climáticos, la salida de la OMS, los aranceles o las amenazas a socios y aliados). Y el problema es que Anthropic tiene mucho que perder, mucho más de esos 200 millones de dólares que es calderilla en el contexto de las inversiones en IA.</p>
<p><!-- BREAK 7 --></p>
<p>Si ceden, supondría dar un paso atrás en un aspecto casi fundacional de la empresa. Si no ceden, se convierten en la “marca de prestigio” de la IA. Demuestran que tienen el modelo que necesita el ejército más tecnológicamente avanzado de la actualidad y que son intocables, al menos mientras una Estados Unidos que ya busca alternativas como Google, X y OpenAI encuentre una alternativa. Pero corren el riesgo de que, EEUU la meta en la lista negra.</p>
<p><!-- BREAK 8 --></p>
<p><strong>El veto</strong>. El Gobierno ha amenazado con condenar a Anthropic a ser una empresa que supone un “riesgo en la cadena de suministro”. Como Amodei apunta en el comunicado, es una etiqueta reservada a los adversarios del país y nunca se ha aplicado a una empresa estadounidense. Sería meter Anthropic en el mismo saco que Huawei y otras empresas chinas e impediría que el resto de socios estadounidenses hiciera tratos con ellos. </p>
<p><!-- BREAK 9 --></p>
<p>Aunque no cedan, EEUU puede adueñarse de la IA por la fuerza con la carta de la Ley de Producción de Defensa. Mediante este decretazo, si consideran que esa herramienta es necesaria e imprescindible para la seguridad nacional, da igual lo que diga Amodei.</p>
<p><!-- BREAK 10 --></p>
<div class="article-asset article-asset-normal article-asset-center">
<div class="desvio-container">
<div class="desvio">
<div class="desvio-figure js-desvio-figure">
 <a href="https://www.xataka.com/robotica-e-ia/derecho-internacional-fue-escrito-pensando-humanos-que-deciden-ia-acaba-romper-esa-cadena-nadie-sabe-quien-responde-ahora" class="pivot-outboundlink" data-vars-post-title="Un soldado puede y debe desobedecer una orden ilegal. El problema al que se asoma Anthropic es que una IA no"><br />
 <img alt="Un soldado puede y debe desobedecer una orden ilegal. El problema al que se asoma Anthropic es que una IA no" width="375" height="142" src="https://i.blogs.es/0e1a33/claude-en-guerra-2/375_142.jpeg"><br />
 </a>
 </div>
<div class="desvio-summary">
<div class="desvio-taxonomy js-desvio-taxonomy">
 <a href="https://www.xataka.com/robotica-e-ia/derecho-internacional-fue-escrito-pensando-humanos-que-deciden-ia-acaba-romper-esa-cadena-nadie-sabe-quien-responde-ahora" class="desvio-taxonomy-anchor pivot-outboundlink" data-vars-post-title="Un soldado puede y debe desobedecer una orden ilegal. El problema al que se asoma Anthropic es que una IA no">En Xataka</a>
 </div>
<p> <a href="https://www.xataka.com/robotica-e-ia/derecho-internacional-fue-escrito-pensando-humanos-que-deciden-ia-acaba-romper-esa-cadena-nadie-sabe-quien-responde-ahora" class="desvio-title js-desvio-title pivot-outboundlink" data-vars-post-title="Un soldado puede y debe desobedecer una orden ilegal. El problema al que se asoma Anthropic es que una IA no">Un soldado puede y debe desobedecer una orden ilegal. El problema al que se asoma Anthropic es que una IA no</a>
 </div>
</p></div>
</p></div>
</div>
<p><strong>En el tejado del Pentágono</strong>. Es donde está la pelota en estos momentos, y el tiempo se acaba. Como decíamos antes, no es una operación entre empresas, no es una pela entre políticos: es una empresa que está siendo amenazada por su propio país. Una amenaza que es un “<a class="text-outboundlink" href="https://www.xataka.com/robotica-e-ia/eeuu-tiene-mensaje-para-empresas-ia-caso-necesidad-esa-ia-estado" data-vars-post-title="Anthropic y OpenAI han desarrollado la IA. El Pentágono de EEUU les está mostrando quién es su dueño realmente" data-vars-post-url="https://www.xataka.com/robotica-e-ia/eeuu-tiene-mensaje-para-empresas-ia-caso-necesidad-esa-ia-estado">danos esto por las buenas o te lo quitamos por las malas</a>”.</p>
<p><!-- BREAK 11 --></p>
<p>En cualquier caso, hay que esperar a ver cómo se desarrolla el día. Anthropic apunta que, si al final el Departamento de Defensa elije a otra empresa, trabajarán para una transición sin fisuras. La pregunta es si habrá una solución tan pacífica teniendo en cuenta que la IA de Anthropic ya está muy integrada en los sistemas del Pentágono… y no suena factible que den un volantazo para desandar lo andado.</p>
<p><!-- BREAK 12 --></p>
<p>Imágenes | <a rel="noopener, noreferrer" href="https://www.flickr.com/photos/whitehouse/54765503399/in/dateposted/">La Casa Blanca</a>, <a rel="noopener, noreferrer" href="https://www.flickr.com/photos/fortunebrainstormtech/53037244386/in/photostream/">Fortute Brainstorm Tech</a></p>
<p>En Xataka | <a class="text-outboundlink" href="https://www.xataka.com/robotica-e-ia/a-granjero-86-anos-le-ofrecieron-15-millones-dolares-para-construir-centro-datos-dijo-que-no" data-vars-post-title="A un granjero de 86 años le ofrecieron 15 millones de dólares para construir un centro de datos. Dijo que no " data-vars-post-url="https://www.xataka.com/robotica-e-ia/a-granjero-86-anos-le-ofrecieron-15-millones-dolares-para-construir-centro-datos-dijo-que-no">A un granjero de 86 años le ofrecieron 15 millones de dólares para construir un centro de datos. Dijo que no</a></p>
<p> &#8211; <br /> La noticia<br />
 <a href="https://www.xataka.com/robotica-e-ia/anthropic-tenia-hoy-para-decidir-se-mantenia-fiel-a-sus-principios-cedia-al-pentagono-ha-elegido-arriesgado?utm_source=feedburner&;utm_medium=feed&;utm_campaign=27_Feb_2026"><br />
 <em> Anthropic tenía hasta hoy para decidir si se mantenía fiel a sus principios o cedía al Pentágono: ha elegido lo más arriesgado </em><br />
 </a><br />
 fue publicada originalmente en<br />
 <a href="https://www.xataka.com/?utm_source=feedburner&;utm_medium=feed&;utm_campaign=27_Feb_2026"><br />
 <strong> Xataka </strong><br />
 </a><br />
 por <a href="https://www.xataka.com/autor/alejandro-alcolea?utm_source=feedburner&;utm_medium=feed&;utm_campaign=27_Feb_2026"><br />
 Alejandro Alcolea<br />
 </a><br />
 . </p>
<p>​17:01 de este viernes 27 de febrero. Esa fue la fecha límite que Estados Unidos dio a Anthropic para que concediera plenos poderes al Pentágono sobre el uso de su IA. Es su softwate el que está plenamente integrado con Palantir y los sistemas del Departamento de Defensa, pero EEUU cree que tiene un problema: Anthropic ha atado a su IA a unas reglas morales que no deberían existir. Así que esta semana Defensa les envió un mensaje: o les dan una IA sin cortapisas o habrá consecuencias.</p>
<p>Y Anthropic ha respondido con un rotundo &#8220;no&#8221;.</p>
<p>Roce monumental. Aquí no estamos ante un conflicto entre empresas: es una empresa contra su Gobierno. Anthropic ofreció su IA al Pentágono para que éste la integrara en sus sistemas. Lo hizo a un precio simbólico: un dólar. El Pentágono aceptó y la respuesta fue un contrato de 200 millones de dólares. El Departamento de Defensa empezó a integrar la IA de Anthropic en sus sistemas, con todo lo que ello conlleva: acceso total a documentos a los que nadie fuera del Pentágono puede acceder.</p>
<p>EEUU también quiere que sea una herramienta de campo, pero hay un problema: esa IA está ‘programada’ para que no pueda usarse para la vigilancia masiva de ciudadanos estadounidenses, para el desarrollo de armas o para el uso de armamento autónomo. Es, precisamente, lo que quiere hacer el Pentágono. El Secretario de Defensa mandó un mensaje a Anthropic: o les dan una IA sin límites o les hacen un Huawei.</p>
<p> En Xataka</p>
<p> Anthropic y OpenAI han desarrollado la IA. El Pentágono de EEUU les está mostrando quién es su dueño realmente</p>
<p>Estos son mis principios. Dario Amodei, CEO de la compañía, ha respondido hoy en el blog de Anthropic. Su frase inicial es potente: “creo profundamente en la importancia existencial de usar la IA para defender Estados Unidos y a otras democracias para derrotar a nuestros adversarios autocráticos”. Buen inicio para lo que parece ser una declaración en la que da su brazo a torcer, pero… no.</p>
<p>Tras un repaso de lo que han “cedido” para que su IA esté en los sistemas del Departamento de Defensa y criticar que EEUU saque la carta de la Ley de Producción de Defensa de 1950 para aterrorizar a una Anthropic que este año saldrá a bolsa, la resolución es firme: “no podemos acceder en buena conciencia a la petición”. La compañía tiene claro que su IA puede ser de mucha ayuda al Gobierno, pero sigue oponiéndose, principalmente, a dos usos concretos:</p>
<p>El espionaje masivo contra ciudadanos de EEUU, porque la IA puede armar bases de datos completas de la vida de cualquier persona.El uso de armas letales autónomas en las que no se puede confiar para la toma de decisiones, ya que no tienen el juicio que sí tiene un soldado profesional. Una IA no cuestiona, no tiene remordimientos, no se pregunta si está bien o mal o si el objetivo es un falso positivo. Una IA… ejecuta.</p>
<p>Hemos dado el pecho por vosotros. En el comunicado, Amodei lanza casi una suplica, un “con todo lo que te he dado”, afirmando que ese compromiso con el liderazgo de Estados Unidos ha sido contra los intereses de la propia compañía. Apuntan que han renunciado a “varios cientos de millones de dólares para impedir que Claude se use en empresas vinculadas al Partido Comunista Chino” y que eso costó algunos ataques por parte de China, con algunas de sus empresas intentando abusar de Claude.<br />
Y es una carta abierta, una declaración de intenciones que ha sido respaldada por empleados de la competencia. Por 219 de Google y por otros 65 de OpenAI. Muchos han dado sus nombres, otros muchos han firmado bajo el anonimato, pero todos con el mismo objetivo: rechazar las demandas del Departamento de Defensa para usar sus modelos para la vigilancia masiva y “matar de forma autónoma a personas sin supervisión humana”.</p>
<p> En Xataka</p>
<p> &#8220;El mundo está en peligro&#8221;: el responsable de seguridad de Anthropic abandona la empresa para dedicarse a escribir poesía</p>
<p> &#8220;En cualquier caso, estas amenazas no cambian nuestra posición: no podemos acceder en buena conciencia a su petición&#8221;</p>
<p>No hay término medio. Por muy bonita y romántica que suene la declaración de los empleados de Google y OpenAI, la realidad es otra. Están echando un pulso al Gobierno, un Gobierno que continuamente está demostrando que se ejecuta lo que ellos quieren (ICE, los movimientos climáticos, la salida de la OMS, los aranceles o las amenazas a socios y aliados). Y el problema es que Anthropic tiene mucho que perder, mucho más de esos 200 millones de dólares que es calderilla en el contexto de las inversiones en IA.</p>
<p>Si ceden, supondría dar un paso atrás en un aspecto casi fundacional de la empresa. Si no ceden, se convierten en la “marca de prestigio” de la IA. Demuestran que tienen el modelo que necesita el ejército más tecnológicamente avanzado de la actualidad y que son intocables, al menos mientras una Estados Unidos que ya busca alternativas como Google, X y OpenAI encuentre una alternativa. Pero corren el riesgo de que, EEUU la meta en la lista negra.</p>
<p>El veto. El Gobierno ha amenazado con condenar a Anthropic a ser una empresa que supone un “riesgo en la cadena de suministro”. Como Amodei apunta en el comunicado, es una etiqueta reservada a los adversarios del país y nunca se ha aplicado a una empresa estadounidense. Sería meter Anthropic en el mismo saco que Huawei y otras empresas chinas e impediría que el resto de socios estadounidenses hiciera tratos con ellos. </p>
<p>Aunque no cedan, EEUU puede adueñarse de la IA por la fuerza con la carta de la Ley de Producción de Defensa. Mediante este decretazo, si consideran que esa herramienta es necesaria e imprescindible para la seguridad nacional, da igual lo que diga Amodei.</p>
<p> En Xataka</p>
<p> Un soldado puede y debe desobedecer una orden ilegal. El problema al que se asoma Anthropic es que una IA no</p>
<p>En el tejado del Pentágono. Es donde está la pelota en estos momentos, y el tiempo se acaba. Como decíamos antes, no es una operación entre empresas, no es una pela entre políticos: es una empresa que está siendo amenazada por su propio país. Una amenaza que es un “danos esto por las buenas o te lo quitamos por las malas”.</p>
<p>En cualquier caso, hay que esperar a ver cómo se desarrolla el día. Anthropic apunta que, si al final el Departamento de Defensa elije a otra empresa, trabajarán para una transición sin fisuras. La pregunta es si habrá una solución tan pacífica teniendo en cuenta que la IA de Anthropic ya está muy integrada en los sistemas del Pentágono… y no suena factible que den un volantazo para desandar lo andado.</p>
<p>Imágenes | La Casa Blanca, Fortute Brainstorm Tech</p>
<p>En Xataka | A un granjero de 86 años le ofrecieron 15 millones de dólares para construir un centro de datos. Dijo que no</p>
<p> &#8211; La noticia</p>
<p> Anthropic tenía hasta hoy para decidir si se mantenía fiel a sus principios o cedía al Pentágono: ha elegido lo más arriesgado </p>
<p> fue publicada originalmente en</p>
<p> Xataka </p>
<p> por<br />
 Alejandro Alcolea</p>
<p> . </p>
<p>​ </p>
<p>​ </p>