Ciencia y Tecnología

El derecho internacional fue escrito pensando en humanos que deciden. La IA acaba de romper esa cadena y nadie sabe quién responde ahora

Published

on

<p>&NewLine; <img src&equals;"https&colon;&sol;&sol;i&period;blogs&period;es&sol;0e1a33&sol;claude-en-guerra-2&sol;1024&lowbar;2000&period;jpeg" alt&equals;"El derecho internacional fue escrito pensando en humanos que deciden&period; La IA acaba de romper esa cadena y nadie sabe quién responde ahora ">&NewLine; <&sol;p>&NewLine;<p>La amenaza de Pete Hegseth a Dario Amodei tiene un subtexto que va mucho más allá del <a class&equals;"text-outboundlink" href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;anthropic-tiene-lineas-rojas-para-su-ia-pentagono-acaba-exigir-que-borre-todas" data-vars-post-title&equals;"Anthropic tiene líneas rojas para su IA&period; El Pentágono acaba de exigir que las borre todas " data-vars-post-url&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;anthropic-tiene-lineas-rojas-para-su-ia-pentagono-acaba-exigir-que-borre-todas">contrato de 200 millones de dólares que el Pentágono puede cancelar<&sol;a>&colon; si el ejército de Estado Unidos despliega armas autónomas controladas por IA sin <a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;www&period;cnbc&period;com&sol;2026&sol;02&sol;24&sol;anthropic-ai-hegseth-spying-defense&period;html">las salvaguardas que Anthropic exige<&sol;a>&comma; habrá eliminado el único cortafuegos que históricamente ha impedido que una orden ilegal se ejecute&period;<&sol;p>&NewLine;<p><&excl;-- BREAK 1 --><&sol;p>&NewLine;<p><strong>Por qué es important<&sol;strong>e&period; Todo el sistema legal y ético de las fuerzas armadas estadounidenses descansa sobre un principio que parece obvio pero que tiene consecuencias importantes&colon; <a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;www&period;npr&period;org&sol;2026&sol;02&sol;24&sol;nx-s1-5725327&sol;pentagon-anthropic-hegseth-safety">un soldado puede y debe desobedecer una orden manifiestamente ilegal<&sol;a>&period;<&sol;p>&NewLine;<p>Es el mecanismo que&comma; en teoría&comma; impide los crímenes de guerra&period; Un <em>drone<&sol;em> autónomo controlado por IA no tiene ese mecanismo&period; No puede negarse&period; No puede dudar&period; No puede ser juzgado en un consejo de guerra&period;<&sol;p>&NewLine;<p><&excl;-- BREAK 2 --><&sol;p>&NewLine;<div class&equals;"article-asset article-asset-normal article-asset-center">&NewLine;<div class&equals;"desvio-container">&NewLine;<div class&equals;"desvio">&NewLine;<div class&equals;"desvio-figure js-desvio-figure">&NewLine; <a href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;2025-ia-parecia-haberse-topado-muro-progreso-muro-volatilizado-febrero-2026" class&equals;"pivot-outboundlink" data-vars-post-title&equals;"En 2025 la IA parecía haberse topado contra un muro de progreso&period; Un muro volatilizado en febrero de 2026"><br &sol;>&NewLine; <img alt&equals;"En 2025 la IA parecía haberse topado contra un muro de progreso&period; Un muro volatilizado en febrero de 2026" width&equals;"375" height&equals;"142" src&equals;"https&colon;&sol;&sol;i&period;blogs&period;es&sol;6a4a57&sol;coding1&sol;375&lowbar;142&period;jpeg"><br &sol;>&NewLine; <&sol;a>&NewLine; <&sol;div>&NewLine;<div class&equals;"desvio-summary">&NewLine;<div class&equals;"desvio-taxonomy js-desvio-taxonomy">&NewLine; <a href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;2025-ia-parecia-haberse-topado-muro-progreso-muro-volatilizado-febrero-2026" class&equals;"desvio-taxonomy-anchor pivot-outboundlink" data-vars-post-title&equals;"En 2025 la IA parecía haberse topado contra un muro de progreso&period; Un muro volatilizado en febrero de 2026">En Xataka<&sol;a>&NewLine; <&sol;div>&NewLine;<p> <a href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;2025-ia-parecia-haberse-topado-muro-progreso-muro-volatilizado-febrero-2026" class&equals;"desvio-title js-desvio-title pivot-outboundlink" data-vars-post-title&equals;"En 2025 la IA parecía haberse topado contra un muro de progreso&period; Un muro volatilizado en febrero de 2026">En 2025 la IA parecía haberse topado contra un muro de progreso&period; Un muro volatilizado en febrero de 2026<&sol;a>&NewLine; <&sol;div>&NewLine;<&sol;p><&sol;div>&NewLine;<&sol;p><&sol;div>&NewLine;<&sol;div>&NewLine;<p><strong>Entre líneas<&sol;strong>&period; Amodei habla de &&num;8220&semi;armas autónomas que disparan sin intervención humana&&num;8221&semi; para señalar un vacío jurídico&period; Si una IA toma la decisión de matar&comma; ¿quién responde penalmente&quest; ¿El programador&quest; ¿El general que activó el sistema&quest; ¿El presidente que firmó la orden&quest;<&sol;p>&NewLine;<p><&excl;-- BREAK 3 --><&sol;p>&NewLine;<p>El derecho internacional humanitario &lpar;Convenios de Ginebra incluidos&rpar; fue redactado pensando en seres humanos que toman decisiones&period; Y ahora la IA disuelve esa cadena de responsabilidad&period;<&sol;p>&NewLine;<p><strong>El telón de fondo<&sol;strong>&period; El argumento de la vigilancia masiva también es un trago amargo&period; La Cuarta Enmienda de la Constitución estadounidense protege a los ciudadanos de búsquedas e intervenciones sin orden judicial&period; Funciona&comma; entre otras razones&comma; porque el Estado nunca ha tenido la capacidad física de procesar todo lo que ocurre en el espacio público&period;<&sol;p>&NewLine;<p><&excl;-- BREAK 4 --><&sol;p>&NewLine;<p>Y de la misma forma&comma; con la IA ese límite operativo desaparece&colon; pasamos a millones de conversaciones grabadas en tiempo real&comma; transcritas&comma; clasificadas y conectadas en apenas segundos&period; Lo que antes era imposible por falta de recursos humanos se vuelve rutinario con un <a class&equals;"text-outboundlink" href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;basics&sol;llm-que-significa-que-se-puede-hacer-este-tipo-modelo-inteligencia-artificial" data-vars-post-title&equals;"LLM&colon; qué es y qué se puede hacer con este tipo de modelo de lenguaje de aprendizaje profundo para inteligencia artificial" data-vars-post-url&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;basics&sol;llm-que-significa-que-se-puede-hacer-este-tipo-modelo-inteligencia-artificial">LLM<&sol;a>&period; La protección constitucional hasta ahora ha dependido&comma; en parte&comma; de la ineficiencia del Estado&comma; de sus limitaciones&period;<&sol;p>&NewLine;<p><strong>Sí&comma; pero<&sol;strong>&period; El Pentágono tiene un argumento que no es descartable&colon; otras democracias también están desarrollando estas capacidades&comma; y China o Rusia no van a esperar a que Estados Unidos resuelva sus dilemas éticos&period;<&sol;p>&NewLine;<p><&excl;-- BREAK 5 --><&sol;p>&NewLine;<p>La pregunta práctica es si tener esas capacidades sin restricciones te hace más seguro o simplemente más peligroso para tus propios ciudadanos&period;<&sol;p>&NewLine;<ul>&NewLine;<li>Amodei lleva meses respondiendo a esa pregunta con una imagen concreta&colon; &&num;8220&semi;<a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;www&period;axios&period;com&sol;2026&sol;02&sol;24&sol;anthropic-pentagon-claude-hegseth-dario">un puñado de personas capaces de operar un ejército de drones sin necesitar que ningún otro ser humano coopere<&sol;a>&&num;8220&semi;&period;<&sol;li>&NewLine;<li>Es decir&comma; el riesgo no es solo externo&period;<&sol;li>&NewLine;<&sol;ul>&NewLine;<div class&equals;"article-asset-video article-asset-normal">&NewLine;<div class&equals;"asset-content">&NewLine;<div class&equals;"base-asset-video">&NewLine;<div class&equals;"js-dailymotion"><&sol;div>&NewLine;<&sol;p><&sol;div>&NewLine;<&sol;p><&sol;div>&NewLine;<&sol;div>&NewLine;<p><strong>La gran pregunta<&sol;strong>&period; <a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;www&period;theguardian&period;com&sol;us-news&sol;2026&sol;feb&sol;24&sol;anthropic-claude-military-ai">OpenAI y Google han aceptado las condiciones del Pentágono<&sol;a>&comma; &&num;8220&semi;todos los usos legales&&num;8221&semi; sin excepciones específicas&comma; y xAI acaba de recibir autorización para operar en sistemas clasificados&period; Anthropic se ha quedado sola en su posición&period;<&sol;p>&NewLine;<p><&excl;-- BREAK 6 --><&sol;p>&NewLine;<p>Y lo que está en juego ahora no es si Claude sobrevive como proveedor militar o no&comma; es si la industria de la IA va a fijar algún límite a lo que vende al Estado&comma; o si ese debate lo zanjará directamente el Congreso&comma; los tribunales o&comma; en el peor de los casos&comma; el primer incidente grave que nadie haya podido prever&period; Parece cuestión de tiempo&period;<&sol;p>&NewLine;<p>En Xataka &vert; <a class&equals;"text-outboundlink" href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;ia-campo-batalla-anthropic-acaba-acusar-a-deepseek-a-otras-empresas-chinas-destilar-claude" data-vars-post-title&equals;"La IA ya es un campo de batalla&colon; Anthropic acaba de acusar a DeepSeek y a otras empresas chinas de &OpenCurlyDoubleQuote;destilar” Claude" data-vars-post-url&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;ia-campo-batalla-anthropic-acaba-acusar-a-deepseek-a-otras-empresas-chinas-destilar-claude">La IA ya es un campo de batalla&colon; Anthropic acaba de acusar a DeepSeek y a otras empresas chinas de &OpenCurlyDoubleQuote;destilar” Claude<&sol;a><&sol;p>&NewLine;<p>Imagen destacada &vert; Xataka<&sol;p>&NewLine;<p> &&num;8211&semi; <br &sol;> La noticia<br &sol;>&NewLine; <a href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;derecho-internacional-fue-escrito-pensando-humanos-que-deciden-ia-acaba-romper-esa-cadena-nadie-sabe-quien-responde-ahora&quest;utm&lowbar;source&equals;feedburner&amp&semi;utm&lowbar;medium&equals;feed&amp&semi;utm&lowbar;campaign&equals;25&lowbar;Feb&lowbar;2026"><br &sol;>&NewLine; <em> El derecho internacional fue escrito pensando en humanos que deciden&period; La IA acaba de romper esa cadena y nadie sabe quién responde ahora <&sol;em><br &sol;>&NewLine; <&sol;a><br &sol;>&NewLine; fue publicada originalmente en<br &sol;>&NewLine; <a href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;&quest;utm&lowbar;source&equals;feedburner&amp&semi;utm&lowbar;medium&equals;feed&amp&semi;utm&lowbar;campaign&equals;25&lowbar;Feb&lowbar;2026"><br &sol;>&NewLine; <strong> Xataka <&sol;strong><br &sol;>&NewLine; <&sol;a><br &sol;>&NewLine; por <a href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;autor&sol;javier-lacort&quest;utm&lowbar;source&equals;feedburner&amp&semi;utm&lowbar;medium&equals;feed&amp&semi;utm&lowbar;campaign&equals;25&lowbar;Feb&lowbar;2026"><br &sol;>&NewLine; Javier Lacort<br &sol;>&NewLine; <&sol;a><br &sol;>&NewLine; &period; <&sol;p>&NewLine;<p>&ZeroWidthSpace;La amenaza de Pete Hegseth a Dario Amodei tiene un subtexto que va mucho más allá del contrato de 200 millones de dólares que el Pentágono puede cancelar&colon; si el ejército de Estado Unidos despliega armas autónomas controladas por IA sin las salvaguardas que Anthropic exige&comma; habrá eliminado el único cortafuegos que históricamente ha impedido que una orden ilegal se ejecute&period;<br &sol;>&NewLine;Por qué es importante&period; Todo el sistema legal y ético de las fuerzas armadas estadounidenses descansa sobre un principio que parece obvio pero que tiene consecuencias importantes&colon; un soldado puede y debe desobedecer una orden manifiestamente ilegal&period;<br &sol;>&NewLine;Es el mecanismo que&comma; en teoría&comma; impide los crímenes de guerra&period; Un drone autónomo controlado por IA no tiene ese mecanismo&period; No puede negarse&period; No puede dudar&period; No puede ser juzgado en un consejo de guerra&period;<&sol;p>&NewLine;<p> En Xataka<&sol;p>&NewLine;<p> En 2025 la IA parecía haberse topado contra un muro de progreso&period; Un muro volatilizado en febrero de 2026<&sol;p>&NewLine;<p>Entre líneas&period; Amodei habla de &&num;8220&semi;armas autónomas que disparan sin intervención humana&&num;8221&semi; para señalar un vacío jurídico&period; Si una IA toma la decisión de matar&comma; ¿quién responde penalmente&quest; ¿El programador&quest; ¿El general que activó el sistema&quest; ¿El presidente que firmó la orden&quest;<br &sol;>&NewLine;El derecho internacional humanitario &lpar;Convenios de Ginebra incluidos&rpar; fue redactado pensando en seres humanos que toman decisiones&period; Y ahora la IA disuelve esa cadena de responsabilidad&period;<br &sol;>&NewLine;El telón de fondo&period; El argumento de la vigilancia masiva también es un trago amargo&period; La Cuarta Enmienda de la Constitución estadounidense protege a los ciudadanos de búsquedas e intervenciones sin orden judicial&period; Funciona&comma; entre otras razones&comma; porque el Estado nunca ha tenido la capacidad física de procesar todo lo que ocurre en el espacio público&period;<br &sol;>&NewLine;Y de la misma forma&comma; con la IA ese límite operativo desaparece&colon; pasamos a millones de conversaciones grabadas en tiempo real&comma; transcritas&comma; clasificadas y conectadas en apenas segundos&period; Lo que antes era imposible por falta de recursos humanos se vuelve rutinario con un LLM&period; La protección constitucional hasta ahora ha dependido&comma; en parte&comma; de la ineficiencia del Estado&comma; de sus limitaciones&period;<br &sol;>&NewLine;Sí&comma; pero&period; El Pentágono tiene un argumento que no es descartable&colon; otras democracias también están desarrollando estas capacidades&comma; y China o Rusia no van a esperar a que Estados Unidos resuelva sus dilemas éticos&period;<br &sol;>&NewLine;La pregunta práctica es si tener esas capacidades sin restricciones te hace más seguro o simplemente más peligroso para tus propios ciudadanos&period;<br &sol;>&NewLine;Amodei lleva meses respondiendo a esa pregunta con una imagen concreta&colon; &&num;8220&semi;un puñado de personas capaces de operar un ejército de drones sin necesitar que ningún otro ser humano coopere&&num;8221&semi;&period;Es decir&comma; el riesgo no es solo externo&period;<&sol;p>&NewLine;<p>La gran pregunta&period; OpenAI y Google han aceptado las condiciones del Pentágono&comma; &&num;8220&semi;todos los usos legales&&num;8221&semi; sin excepciones específicas&comma; y xAI acaba de recibir autorización para operar en sistemas clasificados&period; Anthropic se ha quedado sola en su posición&period;<br &sol;>&NewLine;Y lo que está en juego ahora no es si Claude sobrevive como proveedor militar o no&comma; es si la industria de la IA va a fijar algún límite a lo que vende al Estado&comma; o si ese debate lo zanjará directamente el Congreso&comma; los tribunales o&comma; en el peor de los casos&comma; el primer incidente grave que nadie haya podido prever&period; Parece cuestión de tiempo&period;<br &sol;>&NewLine;En Xataka &vert; La IA ya es un campo de batalla&colon; Anthropic acaba de acusar a DeepSeek y a otras empresas chinas de &OpenCurlyDoubleQuote;destilar” Claude<br &sol;>&NewLine;Imagen destacada &vert; Xataka<&sol;p>&NewLine;<p> &&num;8211&semi; La noticia<&sol;p>&NewLine;<p> El derecho internacional fue escrito pensando en humanos que deciden&period; La IA acaba de romper esa cadena y nadie sabe quién responde ahora <&sol;p>&NewLine;<p> fue publicada originalmente en<&sol;p>&NewLine;<p> Xataka <&sol;p>&NewLine;<p> por<br &sol;>&NewLine; Javier Lacort<&sol;p>&NewLine;<p> &period;   <&sol;p>&NewLine;<p>&ZeroWidthSpace;   <&sol;p>&NewLine;<p>&ZeroWidthSpace; <&sol;p>&NewLine;

Leave a Reply

Your email address will not be published. Required fields are marked *

Noticias Importantes

Copyright © 2017 ERM DIGITAL. powered by ERM.