Ciencia y Tecnología
EEUU tiene un mensaje para las empresas de IA: en caso de necesidad, esa IA es del Estado
<p>
 <img src="https://i.blogs.es/8b10e6/x-47a_first_flight_-189-358h-/1024_2000.jpeg" alt="EEUU tiene un mensaje para las empresas de IA: en caso de necesidad, esa IA es del Estado ">
 </p>
<p>El Pentágono soltó la bomba <a class="text-outboundlink" href="https://www.xataka.com/robotica-e-ia/anthropic-tiene-lineas-rojas-para-su-ia-pentagono-acaba-exigir-que-borre-todas" data-vars-post-title="Anthropic tiene líneas rojas para su IA. El Pentágono acaba de exigir que las borre todas " data-vars-post-url="https://www.xataka.com/robotica-e-ia/anthropic-tiene-lineas-rojas-para-su-ia-pentagono-acaba-exigir-que-borre-todas">hace unas horas</a>. Anthropic tiene hasta este viernes a las 17:01 para aceptar que sus modelos de IA se usen para lo que el Pentágono considere oportuno. Es algo que está poniendo patas arriba la conversación sobre el <a class="text-outboundlink" href="https://www.xataka.com/robotica-e-ia/espana-multara-a-quien-no-etiquete-contenidos-generados-ia-reto-tecnico-regulatorio-colosal" data-vars-post-title='El Gobierno de España quiere que todo el contenido IA lleve una "etiqueta". Suena muy bien, pero es un reto tremendo' data-vars-post-url="https://www.xataka.com/robotica-e-ia/espana-multara-a-quien-no-etiquete-contenidos-generados-ia-reto-tecnico-regulatorio-colosal">uso ético de la IA</a>, pero más importante que eso, pone sobre la mesa una intención muy clara por parte de Estados Unidos: la de que si consideran que hay que usar todos los recursos en cuestión de defensa nacional, todos los recursos pertenecen al Estado. </p>
<p><!-- BREAK 1 --></p>
<p>Y ahí entra la inteligencia artificial de empresas privadas.</p>
<p><strong>En corto</strong>. Dario Amodei es el CEO de Anthropic. Puede que te suene más el nombre de <a class="text-outboundlink" href="https://www.xataka.com/basics/claude-que-como-funciona-que-mejor-que-no-que-chatgpt-competencia" data-vars-post-title="Claude: qué es, cómo funciona y en qué es mejor (y en qué no) que ChatGPT y la competencia " data-vars-post-url="https://www.xataka.com/basics/claude-que-como-funciona-que-mejor-que-no-que-chatgpt-competencia">Claude</a>, uno de sus modelos. Éstos son muy versátiles, pero tienen <a class="text-outboundlink" href="https://www.xataka.com/robotica-e-ia/anthropic-vive-momento-dulce-ha-tomado-decision-que-amenaza-comprometer-su-futuro-no-a-todo-uso-militar" data-vars-post-title="Anthropic vive un momento dulce pero ha tomado una decisión que amenaza con comprometer su futuro: no a todo el uso militar" data-vars-post-url="https://www.xataka.com/robotica-e-ia/anthropic-vive-momento-dulce-ha-tomado-decision-que-amenaza-comprometer-su-futuro-no-a-todo-uso-militar">una línea roja</a><a class="text-outboundlink" href="https://www.xataka.com/robotica-e-ia/anthropic-vive-momento-dulce-ha-tomado-decision-que-amenaza-comprometer-su-futuro-no-a-todo-uso-militar" data-vars-post-title="Anthropic vive un momento dulce pero ha tomado una decisión que amenaza con comprometer su futuro: no a todo el uso militar" data-vars-post-url="https://www.xataka.com/robotica-e-ia/anthropic-vive-momento-dulce-ha-tomado-decision-que-amenaza-comprometer-su-futuro-no-a-todo-uso-militar"> muy clara</a>: no pueden usarse para vigilancia masiva de ciudadanos estadounidenses (ojo con el matiz). Tampoco para el desarrollo de armas o el uso de armamento autónomo controlado totalmente por IA. Y esto es algo que choca con lo que quiere el Pentágono: usar sin restricciones los modelos de Anthropic.</p>
<p><!-- BREAK 2 --></p>
<p>¿Por qué los de Anthropic, te preguntarás? Pues porque esta empresa ofreció su herramienta al Gobierno por el precio simbólico de un dólar, lo que les valió un contrato de 200.000.000 dólares. No les salió mal la jugada, y poco a poco sus modelos se fueron integrando con los de Palantir. Ahora, EEUU quiere disponer de una IA ‘desatada’, pero <a class="text-outboundlink" href="https://www.xataka.com/robotica-e-ia/derecho-internacional-fue-escrito-pensando-humanos-que-deciden-ia-acaba-romper-esa-cadena-nadie-sabe-quien-responde-ahora" data-vars-post-title="El derecho internacional fue escrito pensando en humanos que deciden. La IA acaba de romper esa cadena y nadie sabe quién responde ahora " data-vars-post-url="https://www.xataka.com/robotica-e-ia/derecho-internacional-fue-escrito-pensando-humanos-que-deciden-ia-acaba-romper-esa-cadena-nadie-sabe-quien-responde-ahora">como explica mi compañero Javier Lacort</a>, las leyes y ética de las FFAA de Estados Unidos se cimentan sobre que un soldado puede y debe desobedecer una orden manifiestamente ilegal.</p>
<p><!-- BREAK 3 --></p>
<p>Una IA puede hacer lo que quieran que haga.</p>
<div class="article-asset article-asset-normal article-asset-center">
<div class="desvio-container">
<div class="desvio">
<div class="desvio-figure js-desvio-figure">
 <a href="https://www.xataka.com/robotica-e-ia/ia-campo-batalla-anthropic-acaba-acusar-a-deepseek-a-otras-empresas-chinas-destilar-claude" class="pivot-outboundlink" data-vars-post-title="La IA ya es un campo de batalla: Anthropic acaba de acusar a DeepSeek y a otras empresas chinas de “destilar” Claude"><br />
 <img alt="La IA ya es un campo de batalla: Anthropic acaba de acusar a DeepSeek y a otras empresas chinas de “destilar” Claude" width="375" height="142" src="https://i.blogs.es/72ea95/anthropic-portada2/375_142.jpeg"><br />
 </a>
 </div>
<div class="desvio-summary">
<div class="desvio-taxonomy js-desvio-taxonomy">
 <a href="https://www.xataka.com/robotica-e-ia/ia-campo-batalla-anthropic-acaba-acusar-a-deepseek-a-otras-empresas-chinas-destilar-claude" class="desvio-taxonomy-anchor pivot-outboundlink" data-vars-post-title="La IA ya es un campo de batalla: Anthropic acaba de acusar a DeepSeek y a otras empresas chinas de “destilar” Claude">En Xataka</a>
 </div>
<p> <a href="https://www.xataka.com/robotica-e-ia/ia-campo-batalla-anthropic-acaba-acusar-a-deepseek-a-otras-empresas-chinas-destilar-claude" class="desvio-title js-desvio-title pivot-outboundlink" data-vars-post-title="La IA ya es un campo de batalla: Anthropic acaba de acusar a DeepSeek y a otras empresas chinas de “destilar” Claude">La IA ya es un campo de batalla: Anthropic acaba de acusar a DeepSeek y a otras empresas chinas de “destilar” Claude</a>
 </div>
</p></div>
</p></div>
</div>
<p><strong>Una palanca de 1950</strong>. Un contrato de 200 millones de dólares es jugoso, pero viendo <a class="text-outboundlink" href="https://www.xataka.com/robotica-e-ia/ia-necesita-650-000-millones-al-ano-para-sostenerse-problema-quien-pondra-mesa" data-vars-post-title="La IA necesita 650.000 millones al año para sostenerse. El problema es quién los pondrá sobre la mesa " data-vars-post-url="https://www.xataka.com/robotica-e-ia/ia-necesita-650-000-millones-al-ano-para-sostenerse-problema-quien-pondra-mesa">las barrabasada que se invierten en IA continuamente</a>, es calderilla. Anthropic lo tendría tan fácil como negarse y despejar el terreno para que otro ocupe su lugar en el Pentágono, ¿verdad? Pues… no es tan sencillo. Y no lo es por dos motivos.</p>
<p><!-- BREAK 4 --></p>
<p>El primero es que ya está muy integrada en todos los sistemas, procesos y servicios que el Departamento de Defensa utiliza de forma cotidiana. Es un barco demasiado grande como para que cambie el rumbo. &#8220;Conoce&#8221; demasiado de los interiores de esos sistemas que deben ser altamente secretos. Pero lo más importante es que Estados Unidos tiene una palanca para adueñarse de lo que se le antoje. Lo único que debe argumentar es que sea por una necesidad de seguridad nacional.</p>
<p><!-- BREAK 5 --></p>
<p>En 1950, durante la Guerra de Corea, nació la <a rel="noopener, noreferrer" href="https://en.wikipedia.org/wiki/Defense_Production_Act_of_1950">Defense Production Act</a>, una ley que otorga al presidente poderes para asegurar suministros necesarios para la defensa nacional. Esto, por ejemplo, da poder al Gobierno para exigir a las empresas que prioricen contratos con el Estado para asignar materiales, servicios e instalaciones. También permitir ayudas para ampliar la capacidad productiva y, en definitiva, poner a las mayores empresas del país a funcionar en función de lo que se necesite.</p>
<p><!-- BREAK 6 --></p>
<div class="article-asset-video article-asset-normal">
<div class="asset-content">
<div class="base-asset-video">
<div class="js-dailymotion"></div>
</p></div>
</p></div>
</div>
<p><strong>Demasiado poderosa para ser privada</strong>. Este documento se ha ido expandiendo y ampliando con el tiempo, pues las necesidades de 1950 no son las mismas que las de décadas posteriores, y en 2023 se firmó la <a rel="noopener, noreferrer" href="https://www.presidency.ucsb.edu/documents/executive-order-14110-safe-secure-and-trustworthy-development-and-use-artificial">Orden Ejecutiva 14.110</a>. Es una que obliga a los propietarios de los modelos de IA más potentes a notificar al Gobierno cuando entrenen sistemas que puedan suponer un riesgo para la seguridad nacional, la economía o la salud pública. Tras él, se han ido firmando otros borradores ampliando las exigencias sobre la IA, pero lo cierto es que el Pentágono no necesita publicar nada nuevo para presionar a Anthropic.</p>
<p><!-- BREAK 7 --></p>
<p>Según el Título I (el de ordenar que ciertos productos o servicios se suministren al Gobierno), el Pentágono podría hacerse con la IA de Anthropic para que cumpla sus designios. El respaldo es el que ya hemos comentado: esa “defensa nacional”. Y, en la práctica, se define que, si la empresa no quiere que su IA haga ciertas cosas por esa especie de código moral, si pasa a ser propiedad del Pentágono, se puede eliminar la barrera ética.</p>
<div class="article-asset article-asset-normal article-asset-center">
<div class="desvio-container">
<div class="desvio">
<div class="desvio-figure js-desvio-figure">
 <a href="https://www.xataka.com/espacio/claude-empieza-a-parecer-imparable-nasa-ha-usado-para-planificar-rutas-rover-perseverance-marte" class="pivot-outboundlink" data-vars-post-title="Claude empieza a parecer imparable: la NASA ya lo ha usado para planificar rutas del rover Perseverance en Marte"><br />
 <img alt="Claude empieza a parecer imparable: la NASA ya lo ha usado para planificar rutas del rover Perseverance en Marte" width="375" height="142" src="https://i.blogs.es/dc727e/claude-rover-marte-portada/375_142.jpeg"><br />
 </a>
 </div>
<div class="desvio-summary">
<div class="desvio-taxonomy js-desvio-taxonomy">
 <a href="https://www.xataka.com/espacio/claude-empieza-a-parecer-imparable-nasa-ha-usado-para-planificar-rutas-rover-perseverance-marte" class="desvio-taxonomy-anchor pivot-outboundlink" data-vars-post-title="Claude empieza a parecer imparable: la NASA ya lo ha usado para planificar rutas del rover Perseverance en Marte">En Xataka</a>
 </div>
<p> <a href="https://www.xataka.com/espacio/claude-empieza-a-parecer-imparable-nasa-ha-usado-para-planificar-rutas-rover-perseverance-marte" class="desvio-title js-desvio-title pivot-outboundlink" data-vars-post-title="Claude empieza a parecer imparable: la NASA ya lo ha usado para planificar rutas del rover Perseverance en Marte">Claude empieza a parecer imparable: la NASA ya lo ha usado para planificar rutas del rover Perseverance en Marte</a>
 </div>
</p></div>
</p></div>
</div>
<p><strong>Castigo disciplinario a la “IA woke”</strong>. Y, ahora, la gran pregunta. ¿Puede Anthropic decir algo como “mira, te quedas los 200 millones y cada uno por su lado”? Pues… no. O no de una forma tan sencilla. Ya he comentado que Claude está demasiado dentro de los sistemas del Pentágono (hasta el punto de que fue <a rel="noopener, noreferrer" href="https://www.wsj.com/politics/national-security/pentagon-used-anthropics-claude-in-maduro-venezuela-raid-583aff17">utilizado</a> en la operación para capturar a Nicolás Maduro) y “sabe” demasiado. Está muy integrada en los sistemas clasificados del Pentágono, y como podemos adivinar, no la iban a dejar ir tan fácilmente.</p>
<p><!-- BREAK 8 --></p>
<p>Y ahí entra la figura de Pete Hegseth. Es el Secretario de Defensa, y ha <a rel="noopener, noreferrer" href="https://www.npr.org/2026/02/24/nx-s1-5725327/pentagon-anthropic-hegseth-safety">calificado</a> esa vara moral de Anthropic como la de una “IA woke”. Sí… Porque Google, OpenAI y xAI <a rel="noopener, noreferrer" href="https://www.theguardian.com/us-news/2026/feb/24/anthropic-claude-military-ai">permiten</a> que el Gobierno use sus modelos en cualquier escenario “legal” (para el Gobierno, claro), pero no Anthropic, y además de la palanca de la Defense Production Act, Estados Unidos puede castigar duramente a la empresa.</p>
<p><!-- BREAK 9 --></p>
<p>Si no se “rinden” a sus peticiones, podrían identificar Anthropic como una empresa que ponga en riesgo la cadena de suministro del país. Sería c<a class="text-outboundlink" href="https://www.xataka.com/empresas-y-economia/eeuu-se-intento-cargar-a-huawei-a-base-vetos-respuesta-huawei-muchisimas-gracias-todo" data-vars-post-title="EEUU se intentó cargar a Huawei a base de vetos. La respuesta de Huawei: muchísimas gracias por todo " data-vars-post-url="https://www.xataka.com/empresas-y-economia/eeuu-se-intento-cargar-a-huawei-a-base-vetos-respuesta-huawei-muchisimas-gracias-todo">omo el veto a Huawei</a> de hace unos años, pero a una empresa nacional. En la práctica, las empresas de EEUU no podrían trabajar con Anthropic. Es decir, el país tiene un par de buenos “argumentos” para que Anthropic entregue esa vara moral.</p>
<p><!-- BREAK 10 --></p>
<div class="article-asset article-asset-normal article-asset-center">
<div class="desvio-container">
<div class="desvio">
<div class="desvio-figure js-desvio-figure">
 <a href="https://www.xataka.com/robotica-e-ia/ia-consume-cantidades-obscenas-energia-sam-altman-compara-coste-entrenar-humanos" class="pivot-outboundlink" data-vars-post-title='A Sam Altman le han preguntado si entrenar a una IA no es ineficiente. Ha respondido que "entrenar" a un humano lo es más'><br />
 <img alt='A Sam Altman le han preguntado si entrenar a una IA no es ineficiente. Ha respondido que "entrenar" a un humano lo es más' width="375" height="142" src="https://i.blogs.es/1f9842/altman/375_142.jpeg"><br />
 </a>
 </div>
<div class="desvio-summary">
<div class="desvio-taxonomy js-desvio-taxonomy">
 <a href="https://www.xataka.com/robotica-e-ia/ia-consume-cantidades-obscenas-energia-sam-altman-compara-coste-entrenar-humanos" class="desvio-taxonomy-anchor pivot-outboundlink" data-vars-post-title='A Sam Altman le han preguntado si entrenar a una IA no es ineficiente. Ha respondido que "entrenar" a un humano lo es más'>En Xataka</a>
 </div>
<p> <a href="https://www.xataka.com/robotica-e-ia/ia-consume-cantidades-obscenas-energia-sam-altman-compara-coste-entrenar-humanos" class="desvio-title js-desvio-title pivot-outboundlink" data-vars-post-title='A Sam Altman le han preguntado si entrenar a una IA no es ineficiente. Ha respondido que "entrenar" a un humano lo es más'>A Sam Altman le han preguntado si entrenar a una IA no es ineficiente. Ha respondido que &#8220;entrenar&#8221; a un humano lo es más</a>
 </div>
</p></div>
</p></div>
</div>
<p><strong>Aprendizaje</strong>. No falta tanto para las 17:01 del viernes 27 de febrero, momento en el que sabremos si Anthropic accede por las buenas o por las malas a las “peticiones” del Pentágono. Lo que queda claro es que esto es una lección. No tanto para las empresas estadounidenses que, al final, operan bajo ese paraguas de la Defense Production Act, sino de las del resto del mundo. Concretamente, de las europeas. Y estoy pensando en la carrera espacial.</p>
<p><!-- BREAK 11 --></p>
<p>Europa, al igual que China, Rusia y la propia Estados Unidos, <a class="text-outboundlink" href="https://www.xataka.com/espacio/marte-era-gran-campo-batalla-espacial-china-eeuu-ahora-luna-hay-demasiado-juego" data-vars-post-title="Marte era el gran campo de batalla espacial entre China y EEUU. Ahora es la Luna (y hay demasiado en juego)" data-vars-post-url="https://www.xataka.com/espacio/marte-era-gran-campo-batalla-espacial-china-eeuu-ahora-luna-hay-demasiado-juego">se ha embarcado en la nueva carrera espacial</a>. Van a otro ritmo porque, hasta no hace tanto, tenían a Estados Unidos como ese socio y aliado que siempre estaría ahí. <a class="text-outboundlink" href="https://www.xataka.com/empresas-y-economia/ue-mueve-ficha-aprueba-sus-aranceles-represalia-a-eeuu-sabemos-cuando-comenzara-a-aplicarse-contraataque" data-vars-post-title="La UE mueve ficha y aprueba sus aranceles de represalia a EEUU: ya sabemos cuándo comenzará a aplicarse el contraataque" data-vars-post-url="https://www.xataka.com/empresas-y-economia/ue-mueve-ficha-aprueba-sus-aranceles-represalia-a-eeuu-sabemos-cuando-comenzara-a-aplicarse-contraataque">Los aranceles</a> y <a class="text-outboundlink" href="https://www.xataka.com/magnet/ultima-trampa-mortal-ucrania-a-soldados-rusos-ha-confirmado-algo-que-intuiamos-nueva-bomba-atomica-esta-cielo" data-vars-post-title="El ejército ruso está tan desesperado por el acceso a Internet que Ucrania lo ha utilizado para lanzarle una trampa mortal" data-vars-post-url="https://www.xataka.com/magnet/ultima-trampa-mortal-ucrania-a-soldados-rusos-ha-confirmado-algo-que-intuiamos-nueva-bomba-atomica-esta-cielo">la guerra de Ucrania</a>, entre otras cosas, han quebrado esa confianza y Europa se ha dado cuenta de que <a class="text-outboundlink" href="https://www.xataka.com/espacio/europa-acaba-inyectar-902-millones-euros-su-gran-obsesion-encontrar-a-desesperada-su-propia-spacex" data-vars-post-title="Europa se ha dado cuenta de que no puede depender de SpaceX para ir al espacio. Y ha empezado a lanzar dinero a sus empresas" data-vars-post-url="https://www.xataka.com/espacio/europa-acaba-inyectar-902-millones-euros-su-gran-obsesion-encontrar-a-desesperada-su-propia-spacex">tiene que ponerse las pilas en muchos frentes</a>.</p>
<p><!-- BREAK 12 --></p>
<p>Y una de ellas es en quién confía. Por ejemplo, <a class="text-outboundlink" href="https://www.xataka.com/espacio/spacex-conocida-sus-cohetes-que-se-conoce-su-creciente-llamativa-flota-aviones" data-vars-post-title="SpaceX es conocida por sus cohetes. Lo que se conoce menos es su creciente y llamativa flota de aviones " data-vars-post-url="https://www.xataka.com/espacio/spacex-conocida-sus-cohetes-que-se-conoce-su-creciente-llamativa-flota-aviones">SpaceX</a> se ha convertido en un socio en comunicación satelital y envíos al espacio, pero SpaceX ya no es sólo una empresa de cohetes: <a class="text-outboundlink" href="https://www.xataka.com/empresas-y-economia/musk-no-tiene-mejor-modelo-mejor-producto-tiene-algo-importante-carrera-ia-spacex" data-vars-post-title="xAI se estaba quedando peligrosamente sin dinero. Elon Musk lo ha solucionado con un viejo truco: que la compre SpaceX" data-vars-post-url="https://www.xataka.com/empresas-y-economia/musk-no-tiene-mejor-modelo-mejor-producto-tiene-algo-importante-carrera-ia-spacex">es una empresa que posee xAI</a>. Y, como comenté, xAI tiene vínculos con el Departamento de Defensa de EEUU. Pero además <a class="text-outboundlink" href="https://www.xataka.com/empresas-y-economia/xai-elon-musk-adquiere-a-x-tambien-elon-musk-movimiento-que-casi-nadie-vio-venir" data-vars-post-title="xAI de Elon Musk adquiere a X, también de Elon Musk: un movimiento que casi nadie vio venir" data-vars-post-url="https://www.xataka.com/empresas-y-economia/xai-elon-musk-adquiere-a-x-tambien-elon-musk-movimiento-que-casi-nadie-vio-venir">SpaceX es X -Twitter-</a>, una base de datos tremenda de ciudadanos europeos. Y ahí está la otra lectura: países extranjeros <a class="text-outboundlink" href="https://www.xataka.com/magnet/espana-acaba-sorprender-a-europa-eeuu-operacion-precedentes-no-simple-rearme-golpe-naval-historico" data-vars-post-title="En pleno rearme, España acaba de sorprender a Europa: 5.000 millones para 34 buques de guerra y cuatro submarinos" data-vars-post-url="https://www.xataka.com/magnet/espana-acaba-sorprender-a-europa-eeuu-operacion-precedentes-no-simple-rearme-golpe-naval-historico">no pueden depender</a> en sistemas críticos de proveedores que operen bajo el paraguas estadounidense… y la Defense Production Act.</p>
<p><!-- BREAK 13 --></p>
<p>En Xataka | <a class="text-outboundlink" href="https://www.xataka.com/robotica-e-ia/investigadores-brillantes-control-gobierno-autoritario-ceo-anthropic-se-ha-pronunciado-deepseek" data-vars-post-title='"Son investigadores brillantes bajo control de un gobierno autoritario". El CEO de Anthropic se ha pronunciado sobre DeepSeek ' data-vars-post-url="https://www.xataka.com/robotica-e-ia/investigadores-brillantes-control-gobierno-autoritario-ceo-anthropic-se-ha-pronunciado-deepseek">&#8220;Son investigadores brillantes bajo control de un gobierno autoritario&#8221;. El CEO de Anthropic se ha pronunciado sobre DeepSeek</a></p>
<p> &#8211; <br /> La noticia<br />
 <a href="https://www.xataka.com/robotica-e-ia/eeuu-tiene-mensaje-para-empresas-ia-caso-necesidad-esa-ia-estado?utm_source=feedburner&;utm_medium=feed&;utm_campaign=25_Feb_2026"><br />
 <em> EEUU tiene un mensaje para las empresas de IA: en caso de necesidad, esa IA es del Estado </em><br />
 </a><br />
 fue publicada originalmente en<br />
 <a href="https://www.xataka.com/?utm_source=feedburner&;utm_medium=feed&;utm_campaign=25_Feb_2026"><br />
 <strong> Xataka </strong><br />
 </a><br />
 por <a href="https://www.xataka.com/autor/alejandro-alcolea?utm_source=feedburner&;utm_medium=feed&;utm_campaign=25_Feb_2026"><br />
 Alejandro Alcolea<br />
 </a><br />
 . </p>
<p>​El Pentágono soltó la bomba hace unas horas. Anthropic tiene hasta este viernes a las 17:01 para aceptar que sus modelos de IA se usen para lo que el Pentágono considere oportuno. Es algo que está poniendo patas arriba la conversación sobre el uso ético de la IA, pero más importante que eso, pone sobre la mesa una intención muy clara por parte de Estados Unidos: la de que si consideran que hay que usar todos los recursos en cuestión de defensa nacional, todos los recursos pertenecen al Estado. </p>
<p>Y ahí entra la inteligencia artificial de empresas privadas.</p>
<p>En corto. Dario Amodei es el CEO de Anthropic. Puede que te suene más el nombre de Claude, uno de sus modelos. Éstos son muy versátiles, pero tienen una línea roja muy clara: no pueden usarse para vigilancia masiva de ciudadanos estadounidenses (ojo con el matiz). Tampoco para el desarrollo de armas o el uso de armamento autónomo controlado totalmente por IA. Y esto es algo que choca con lo que quiere el Pentágono: usar sin restricciones los modelos de Anthropic.</p>
<p>¿Por qué los de Anthropic, te preguntarás? Pues porque esta empresa ofreció su herramienta al Gobierno por el precio simbólico de un dólar, lo que les valió un contrato de 200.000.000 dólares. No les salió mal la jugada, y poco a poco sus modelos se fueron integrando con los de Palantir. Ahora, EEUU quiere disponer de una IA ‘desatada’, pero como explica mi compañero Javier Lacort, las leyes y ética de las FFAA de Estados Unidos se cimentan sobre que un soldado puede y debe desobedecer una orden manifiestamente ilegal.</p>
<p>Una IA puede hacer lo que quieran que haga.</p>
<p> En Xataka</p>
<p> La IA ya es un campo de batalla: Anthropic acaba de acusar a DeepSeek y a otras empresas chinas de “destilar” Claude</p>
<p>Una palanca de 1950. Un contrato de 200 millones de dólares es jugoso, pero viendo las barrabasada que se invierten en IA continuamente, es calderilla. Anthropic lo tendría tan fácil como negarse y despejar el terreno para que otro ocupe su lugar en el Pentágono, ¿verdad? Pues… no es tan sencillo. Y no lo es por dos motivos.</p>
<p>El primero es que ya está muy integrada en todos los sistemas, procesos y servicios que el Departamento de Defensa utiliza de forma cotidiana. Es un barco demasiado grande como para que cambie el rumbo. &#8220;Conoce&#8221; demasiado de los interiores de esos sistemas que deben ser altamente secretos. Pero lo más importante es que Estados Unidos tiene una palanca para adueñarse de lo que se le antoje. Lo único que debe argumentar es que sea por una necesidad de seguridad nacional.</p>
<p>En 1950, durante la Guerra de Corea, nació la Defense Production Act, una ley que otorga al presidente poderes para asegurar suministros necesarios para la defensa nacional. Esto, por ejemplo, da poder al Gobierno para exigir a las empresas que prioricen contratos con el Estado para asignar materiales, servicios e instalaciones. También permitir ayudas para ampliar la capacidad productiva y, en definitiva, poner a las mayores empresas del país a funcionar en función de lo que se necesite.</p>
<p>Demasiado poderosa para ser privada. Este documento se ha ido expandiendo y ampliando con el tiempo, pues las necesidades de 1950 no son las mismas que las de décadas posteriores, y en 2023 se firmó la Orden Ejecutiva 14.110. Es una que obliga a los propietarios de los modelos de IA más potentes a notificar al Gobierno cuando entrenen sistemas que puedan suponer un riesgo para la seguridad nacional, la economía o la salud pública. Tras él, se han ido firmando otros borradores ampliando las exigencias sobre la IA, pero lo cierto es que el Pentágono no necesita publicar nada nuevo para presionar a Anthropic.<br />
Según el Título I (el de ordenar que ciertos productos o servicios se suministren al Gobierno), el Pentágono podría hacerse con la IA de Anthropic para que cumpla sus designios. El respaldo es el que ya hemos comentado: esa “defensa nacional”. Y, en la práctica, se define que, si la empresa no quiere que su IA haga ciertas cosas por esa especie de código moral, si pasa a ser propiedad del Pentágono, se puede eliminar la barrera ética.</p>
<p> En Xataka</p>
<p> Claude empieza a parecer imparable: la NASA ya lo ha usado para planificar rutas del rover Perseverance en Marte</p>
<p>Castigo disciplinario a la “IA woke”. Y, ahora, la gran pregunta. ¿Puede Anthropic decir algo como “mira, te quedas los 200 millones y cada uno por su lado”? Pues… no. O no de una forma tan sencilla. Ya he comentado que Claude está demasiado dentro de los sistemas del Pentágono (hasta el punto de que fue utilizado en la operación para capturar a Nicolás Maduro) y “sabe” demasiado. Está muy integrada en los sistemas clasificados del Pentágono, y como podemos adivinar, no la iban a dejar ir tan fácilmente.</p>
<p>Y ahí entra la figura de Pete Hegseth. Es el Secretario de Defensa, y ha calificado esa vara moral de Anthropic como la de una “IA woke”. Sí… Porque Google, OpenAI y xAI permiten que el Gobierno use sus modelos en cualquier escenario “legal” (para el Gobierno, claro), pero no Anthropic, y además de la palanca de la Defense Production Act, Estados Unidos puede castigar duramente a la empresa.</p>
<p>Si no se “rinden” a sus peticiones, podrían identificar Anthropic como una empresa que ponga en riesgo la cadena de suministro del país. Sería como el veto a Huawei de hace unos años, pero a una empresa nacional. En la práctica, las empresas de EEUU no podrían trabajar con Anthropic. Es decir, el país tiene un par de buenos “argumentos” para que Anthropic entregue esa vara moral.</p>
<p> En Xataka</p>
<p> A Sam Altman le han preguntado si entrenar a una IA no es ineficiente. Ha respondido que &#8220;entrenar&#8221; a un humano lo es más</p>
<p>Aprendizaje. No falta tanto para las 17:01 del viernes 27 de febrero, momento en el que sabremos si Anthropic accede por las buenas o por las malas a las “peticiones” del Pentágono. Lo que queda claro es que esto es una lección. No tanto para las empresas estadounidenses que, al final, operan bajo ese paraguas de la Defense Production Act, sino de las del resto del mundo. Concretamente, de las europeas. Y estoy pensando en la carrera espacial.</p>
<p>Europa, al igual que China, Rusia y la propia Estados Unidos, se ha embarcado en la nueva carrera espacial. Van a otro ritmo porque, hasta no hace tanto, tenían a Estados Unidos como ese socio y aliado que siempre estaría ahí. Los aranceles y la guerra de Ucrania, entre otras cosas, han quebrado esa confianza y Europa se ha dado cuenta de que tiene que ponerse las pilas en muchos frentes.</p>
<p>Y una de ellas es en quién confía. Por ejemplo, SpaceX se ha convertido en un socio en comunicación satelital y envíos al espacio, pero SpaceX ya no es sólo una empresa de cohetes: es una empresa que posee xAI. Y, como comenté, xAI tiene vínculos con el Departamento de Defensa de EEUU. Pero además SpaceX es X -Twitter-, una base de datos tremenda de ciudadanos europeos. Y ahí está la otra lectura: países extranjeros no pueden depender en sistemas críticos de proveedores que operen bajo el paraguas estadounidense… y la Defense Production Act.</p>
<p>En Xataka | &#8220;Son investigadores brillantes bajo control de un gobierno autoritario&#8221;. El CEO de Anthropic se ha pronunciado sobre DeepSeek</p>
<p> &#8211; La noticia</p>
<p> EEUU tiene un mensaje para las empresas de IA: en caso de necesidad, esa IA es del Estado </p>
<p> fue publicada originalmente en</p>
<p> Xataka </p>
<p> por<br />
 Alejandro Alcolea</p>
<p> . </p>
<p>​ </p>
<p>​ </p>