Ciencia y Tecnología

Anthropic ha abandonado su principio más importante: ya no pausará modelos peligrosos si la competencia los saca antes

Published

on

<p>&NewLine; <img src&equals;"https&colon;&sol;&sol;i&period;blogs&period;es&sol;ac488e&sol;anthropic-destacada&sol;1024&lowbar;2000&period;jpeg" alt&equals;"Anthropic ha abandonado su principio más importante&colon; ya no pausará modelos peligrosos si la competencia los saca antes">&NewLine; <&sol;p>&NewLine;<p>Anthropic está en medio de <a class&equals;"text-outboundlink" href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;anthropic-tiene-lineas-rojas-para-su-ia-pentagono-acaba-exigir-que-borre-todas" data-vars-post-title&equals;"Anthropic tiene líneas rojas para su IA&period; El Pentágono acaba de exigir que las borre todas " data-vars-post-url&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;anthropic-tiene-lineas-rojas-para-su-ia-pentagono-acaba-exigir-que-borre-todas">un meollo importante con el Pentágono<&sol;a> en Estados Unidos que puede acabar dando forma al futuro de la empresa&period; Fundada con la seguridad como razón de ser&comma; acaba de reescribir las reglas que la definían&period; Y es que su &OpenCurlyDoubleQuote;<a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;www&period;anthropic&period;com&sol;news&sol;responsible-scaling-policy-v3">Política de Escalado Responsable<&sol;a>”&comma; el documento que establecía cuándo detener el desarrollo de un modelo demasiado peligroso&comma; ha evolucionado a una mera hoja de ruta con objetivos flexibles&period; Y este cambio es bastante más importante de lo que parece&period; No solo para Anthropic&comma; sino para el resto de la industria&period; Vamos al lío&period;<&sol;p>&NewLine;<p><&excl;-- BREAK 1 --><&sol;p>&NewLine;<p><strong>Qué ha cambiado exactamente&period;<&sol;strong> Hasta ahora&comma; la política de Anthropic establecía que la compañía pausaría el entrenamiento o retrasaría el lanzamiento de un modelo si sus capacidades superaban la velocidad a la que podían desarrollarse salvaguardas suficientes&period; Es decir&colon; si el modelo era demasiado potente para ser controlado con garantías&comma; se frenaba&period;<&sol;p>&NewLine;<p><&excl;-- BREAK 2 --><&sol;p>&NewLine;<p>Esto se acabó&period; Y es que <a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;www&period;anthropic&period;com&sol;news&sol;responsible-scaling-policy-v3">la nueva política<&sol;a> elimina ese mecanismo de freno automático y lo sustituye por una serie de compromisos públicos&comma; junto con informes de riesgo periódicos auditados por terceros&period; El cambio lo confirmaba la propia empresa en un comunicado oficial&period;<&sol;p>&NewLine;<p><&excl;-- BREAK 3 --><&sol;p>&NewLine;<div class&equals;"article-asset article-asset-normal article-asset-center">&NewLine;<div class&equals;"desvio-container">&NewLine;<div class&equals;"desvio">&NewLine;<div class&equals;"desvio-figure js-desvio-figure">&NewLine; <a href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;a-granjero-86-anos-le-ofrecieron-15-millones-dolares-para-construir-centro-datos-dijo-que-no" class&equals;"pivot-outboundlink" data-vars-post-title&equals;"A un granjero de 86 años le ofrecieron 15 millones de dólares para construir un centro de datos&period; Dijo que no "><br &sol;>&NewLine; <img alt&equals;"A un granjero de 86 años le ofrecieron 15 millones de dólares para construir un centro de datos&period; Dijo que no " width&equals;"375" height&equals;"142" src&equals;"https&colon;&sol;&sol;i&period;blogs&period;es&sol;73b7ff&sol;ps---plantilla-portadas-xtk-3-&sol;375&lowbar;142&period;jpeg"><br &sol;>&NewLine; <&sol;a>&NewLine; <&sol;div>&NewLine;<div class&equals;"desvio-summary">&NewLine;<div class&equals;"desvio-taxonomy js-desvio-taxonomy">&NewLine; <a href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;a-granjero-86-anos-le-ofrecieron-15-millones-dolares-para-construir-centro-datos-dijo-que-no" class&equals;"desvio-taxonomy-anchor pivot-outboundlink" data-vars-post-title&equals;"A un granjero de 86 años le ofrecieron 15 millones de dólares para construir un centro de datos&period; Dijo que no ">En Xataka<&sol;a>&NewLine; <&sol;div>&NewLine;<p> <a href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;a-granjero-86-anos-le-ofrecieron-15-millones-dolares-para-construir-centro-datos-dijo-que-no" class&equals;"desvio-title js-desvio-title pivot-outboundlink" data-vars-post-title&equals;"A un granjero de 86 años le ofrecieron 15 millones de dólares para construir un centro de datos&period; Dijo que no ">A un granjero de 86 años le ofrecieron 15 millones de dólares para construir un centro de datos&period; Dijo que no <&sol;a>&NewLine; <&sol;div>&NewLine;<&sol;p><&sol;div>&NewLine;<&sol;p><&sol;div>&NewLine;<&sol;div>&NewLine;<p><strong>Por qué lo han hecho&period;<&sol;strong> La empresa da dos razones principales&period; La primera es el entorno competitivo&colon; OpenAI&comma; Google y xAI avanzan sin ese tipo de restricciones&period; &&num;8220&semi;No sentíamos que tuviera sentido asumir compromisos unilaterales si los competidores están avanzando a toda velocidad&&num;8221&semi;&comma; <a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;time&period;com&sol;7380854&sol;exclusive-anthropic-drops-flagship-safety-pledge&sol;">contaba<&sol;a> Jared Kaplan&comma; director científico de Anthropic&comma; al Time&period; La segunda&comma; como no podía ser de otra manera&comma; es política&colon; Washington <a class&equals;"text-outboundlink" href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;europa-lucha-sus-normas-ia-eeuu-esta-apostando-contrario-relajacion-normativa-precedentes" data-vars-post-title&equals;"Mientras Europa lucha con sus normas sobre IA&comma; EEUU está apostando por lo contrario&colon; una relajación normativa sin precedentes" data-vars-post-url&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;europa-lucha-sus-normas-ia-eeuu-esta-apostando-contrario-relajacion-normativa-precedentes">le ha dado la espalda a la regulación de la IA<&sol;a>&comma; y Anthropic reconoce en su blog que el clima antiregulatorio actual hace que sus propias salvaguardas resulten asimétricas respecto al resto del sector&period;<&sol;p>&NewLine;<p><&excl;-- BREAK 4 --><&sol;p>&NewLine;<p><strong>Paradoja<&sol;strong><strong>&period;<&sol;strong> Desde el punto de vista de Anthropic&comma; no es una renuncia a la seguridad&comma; sino una decisión tomada en base a ella&period; Su razonamiento&colon; si los actores que son más responsables &lpar;ellos se meten en este saco&comma; lógicamente&rpar; se detienen mientras los menos cuidadosos siguen adelante&comma; el resultado neto es &OpenCurlyDoubleQuote;un mundo menos seguro”&period;<&sol;p>&NewLine;<p><&excl;-- BREAK 5 --><&sol;p>&NewLine;<p>La lógica tiene cierta coherencia&comma; pero también supone aceptar que la seguridad pasa a depender de lo que haga la competencia&period; Y eso sí es un juego muy peligroso&period;<&sol;p>&NewLine;<p><&excl;-- BREAK 6 --><&sol;p>&NewLine;<div class&equals;"article-asset-video article-asset-normal">&NewLine;<div class&equals;"asset-content">&NewLine;<div class&equals;"base-asset-video">&NewLine;<div class&equals;"js-dailymotion"><&sol;div>&NewLine;<&sol;p><&sol;div>&NewLine;<&sol;p><&sol;div>&NewLine;<&sol;div>&NewLine;<p><strong>Contexto<&sol;strong><strong>&period;<&sol;strong> Anthropic fue fundada por exdirectivos de OpenAI&comma; entre ellos Dario Amodei&comma; que abandonaron esa empresa precisamente por considerar que no prestaba suficiente atención a los riesgos de la IA&period; La nueva política llega en un momento en el que varios investigadores de seguridad han dejado la compañía&period; Tal y como <a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;www&period;wsj&period;com&sol;tech&sol;ai&sol;anthropic-dials-back-ai-safety-commitments-38257540">compartía<&sol;a> el Wall Street Journal&comma; uno de ellos&comma; Mrinank Sharma&comma; escribió este mismo mes una carta a sus colegas diciendo que &&num;8220&semi;<a class&equals;"text-outboundlink" href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;mundo-esta-peligro-responsable-seguridad-anthropic-abandona-empresa-para-dedicarse-a-escribir-poesia" data-vars-post-title&equals;'"El mundo está en peligro"&colon; el responsable de seguridad de Anthropic abandona la empresa para dedicarse a escribir poesía' data-vars-post-url&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;mundo-esta-peligro-responsable-seguridad-anthropic-abandona-empresa-para-dedicarse-a-escribir-poesia">el mundo está en peligro<&sol;a>&&num;8221&semi; a causa de la IA&comma; antes de anunciar su marcha&period; De hecho&comma; según fuentes cercanas al medio&comma; su salida estaría relacionada en parte con esta decisión&period;<&sol;p>&NewLine;<p><&excl;-- BREAK 7 --><&sol;p>&NewLine;<div class&equals;"article-asset article-asset-normal article-asset-center">&NewLine;<div class&equals;"desvio-container">&NewLine;<div class&equals;"desvio">&NewLine;<div class&equals;"desvio-figure js-desvio-figure">&NewLine; <a href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;ia-publica-11-000-podcasts-al-dia-copiando-a-periodistas-locales-momento-no-hay-forma-parar-avalancha" class&equals;"pivot-outboundlink" data-vars-post-title&equals;"Una IA publica 11&period;000 podcasts al día copiando a periodistas locales&period; Y de momento no hay forma de parar la avalancha"><br &sol;>&NewLine; <img alt&equals;"Una IA publica 11&period;000 podcasts al día copiando a periodistas locales&period; Y de momento no hay forma de parar la avalancha" width&equals;"375" height&equals;"142" src&equals;"https&colon;&sol;&sol;i&period;blogs&period;es&sol;b55048&sol;captura-de-pantalla-2026-02-26-a-las-11&period;13&period;55&sol;375&lowbar;142&period;jpeg"><br &sol;>&NewLine; <&sol;a>&NewLine; <&sol;div>&NewLine;<div class&equals;"desvio-summary">&NewLine;<div class&equals;"desvio-taxonomy js-desvio-taxonomy">&NewLine; <a href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;ia-publica-11-000-podcasts-al-dia-copiando-a-periodistas-locales-momento-no-hay-forma-parar-avalancha" class&equals;"desvio-taxonomy-anchor pivot-outboundlink" data-vars-post-title&equals;"Una IA publica 11&period;000 podcasts al día copiando a periodistas locales&period; Y de momento no hay forma de parar la avalancha">En Xataka<&sol;a>&NewLine; <&sol;div>&NewLine;<p> <a href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;ia-publica-11-000-podcasts-al-dia-copiando-a-periodistas-locales-momento-no-hay-forma-parar-avalancha" class&equals;"desvio-title js-desvio-title pivot-outboundlink" data-vars-post-title&equals;"Una IA publica 11&period;000 podcasts al día copiando a periodistas locales&period; Y de momento no hay forma de parar la avalancha">Una IA publica 11&period;000 podcasts al día copiando a periodistas locales&period; Y de momento no hay forma de parar la avalancha<&sol;a>&NewLine; <&sol;div>&NewLine;<&sol;p><&sol;div>&NewLine;<&sol;p><&sol;div>&NewLine;<&sol;div>&NewLine;<p><strong>Qué pasa con el Pentágono<&sol;strong><strong>&period;<&sol;strong> El anuncio llega en plena tensión con el Pentágono&period; El secretario de Defensa estadounidense&comma; Pete Hegseth&comma; <a class&equals;"text-outboundlink" href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;eeuu-tiene-mensaje-para-empresas-ia-caso-necesidad-esa-ia-estado" data-vars-post-title&equals;"EEUU tiene un mensaje para las empresas de IA&colon; en caso de necesidad&comma; esa IA es del Estado " data-vars-post-url&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;eeuu-tiene-mensaje-para-empresas-ia-caso-necesidad-esa-ia-estado">dio a Anthropic un ultimátum<&sol;a> el mismo martes en que se hizo público el cambio de política&colon; modificar sus líneas rojas sobre el uso de <a class&equals;"text-outboundlink" href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;basics&sol;claude-que-como-funciona-que-mejor-que-no-que-chatgpt-competencia" data-vars-post-title&equals;"Claude&colon; qué es&comma; cómo funciona y en qué es mejor &lpar;y en qué no&rpar; que ChatGPT y la competencia " data-vars-post-url&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;basics&sol;claude-que-como-funciona-que-mejor-que-no-que-chatgpt-competencia">Claude<&sol;a> o arriesgarse a perder un contrato de 200 millones de dólares con el Departamento de Defensa&period; Desde Anthropic han dejado claro que ambos asuntos son independientes&comma; pero la coincidencia temporal no ha pasado desapercibida&period;<&sol;p>&NewLine;<p><&excl;-- BREAK 8 --><&sol;p>&NewLine;<p><strong>Qué queda de la política de seguridad&period;<&sol;strong> No es un abandono total&period; Anthropic mantiene el compromiso de retrasar el desarrollo o despliegue de modelos &&num;8220&semi;altamente capaces&&num;8221&semi; en circunstancias específicas&comma; y se compromete a publicar informes detallados de riesgo cada tres o seis meses&comma; verificados externamente&period; La compañía también separa ahora sus propias directrices internas de sus recomendaciones para el resto del sector&comma; reconociendo implícitamente que la apuesta por una &&num;8220&semi;carrera hacia arriba&&num;8221&semi;&comma; en la que otras empresas están adoptando&comma; no ha funcionado como esperaban&period;<&sol;p>&NewLine;<p><&excl;-- BREAK 9 --><&sol;p>&NewLine;<p>Imagen de portada &vert; <a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;upload&period;wikimedia&period;org&sol;wikipedia&sol;commons&sol;d&sol;da&sol;Dario&lowbar;Amodei&lowbar;at&lowbar;TechCrunch&lowbar;Disrupt&lowbar;2023&lowbar;01&period;jpg">Wikimedia Commons<&sol;a> y Anthropic<&sol;p>&NewLine;<p>En Xataka &vert; <a class&equals;"text-outboundlink" href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;eeuu-tiene-mensaje-para-empresas-ia-caso-necesidad-esa-ia-estado" data-vars-post-title&equals;"EEUU tiene un mensaje para las empresas de IA&colon; en caso de necesidad&comma; esa IA es del Estado " data-vars-post-url&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;eeuu-tiene-mensaje-para-empresas-ia-caso-necesidad-esa-ia-estado">EEUU tiene un mensaje para las empresas de IA&colon; en caso de necesidad&comma; esa IA es del Estado<&sol;a><&sol;p>&NewLine;<p> &&num;8211&semi; <br &sol;> La noticia<br &sol;>&NewLine; <a href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;empresas-y-economia&sol;anthropic-ha-abandonado-su-principio-importante-no-pausara-modelos-peligrosos-competencia-saca-antes&quest;utm&lowbar;source&equals;feedburner&amp&semi;utm&lowbar;medium&equals;feed&amp&semi;utm&lowbar;campaign&equals;26&lowbar;Feb&lowbar;2026"><br &sol;>&NewLine; <em> Anthropic ha abandonado su principio más importante&colon; ya no pausará modelos peligrosos si la competencia los saca antes <&sol;em><br &sol;>&NewLine; <&sol;a><br &sol;>&NewLine; fue publicada originalmente en<br &sol;>&NewLine; <a href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;&quest;utm&lowbar;source&equals;feedburner&amp&semi;utm&lowbar;medium&equals;feed&amp&semi;utm&lowbar;campaign&equals;26&lowbar;Feb&lowbar;2026"><br &sol;>&NewLine; <strong> Xataka <&sol;strong><br &sol;>&NewLine; <&sol;a><br &sol;>&NewLine; por <a href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;autor&sol;antonio-vallejo-taslimi&quest;utm&lowbar;source&equals;feedburner&amp&semi;utm&lowbar;medium&equals;feed&amp&semi;utm&lowbar;campaign&equals;26&lowbar;Feb&lowbar;2026"><br &sol;>&NewLine; Antonio Vallejo<br &sol;>&NewLine; <&sol;a><br &sol;>&NewLine; &period; <&sol;p>&NewLine;<p>&ZeroWidthSpace;Anthropic está en medio de un meollo importante con el Pentágono en Estados Unidos que puede acabar dando forma al futuro de la empresa&period; Fundada con la seguridad como razón de ser&comma; acaba de reescribir las reglas que la definían&period; Y es que su &OpenCurlyDoubleQuote;Política de Escalado Responsable”&comma; el documento que establecía cuándo detener el desarrollo de un modelo demasiado peligroso&comma; ha evolucionado a una mera hoja de ruta con objetivos flexibles&period; Y este cambio es bastante más importante de lo que parece&period; No solo para Anthropic&comma; sino para el resto de la industria&period; Vamos al lío&period;<&sol;p>&NewLine;<p>Qué ha cambiado exactamente&period; Hasta ahora&comma; la política de Anthropic establecía que la compañía pausaría el entrenamiento o retrasaría el lanzamiento de un modelo si sus capacidades superaban la velocidad a la que podían desarrollarse salvaguardas suficientes&period; Es decir&colon; si el modelo era demasiado potente para ser controlado con garantías&comma; se frenaba&period;<&sol;p>&NewLine;<p>Esto se acabó&period; Y es que la nueva política elimina ese mecanismo de freno automático y lo sustituye por una serie de compromisos públicos&comma; junto con informes de riesgo periódicos auditados por terceros&period; El cambio lo confirmaba la propia empresa en un comunicado oficial&period;<&sol;p>&NewLine;<p> En Xataka<&sol;p>&NewLine;<p> A un granjero de 86 años le ofrecieron 15 millones de dólares para construir un centro de datos&period; Dijo que no <&sol;p>&NewLine;<p>Por qué lo han hecho&period; La empresa da dos razones principales&period; La primera es el entorno competitivo&colon; OpenAI&comma; Google y xAI avanzan sin ese tipo de restricciones&period; &&num;8220&semi;No sentíamos que tuviera sentido asumir compromisos unilaterales si los competidores están avanzando a toda velocidad&&num;8221&semi;&comma; contaba Jared Kaplan&comma; director científico de Anthropic&comma; al Time&period; La segunda&comma; como no podía ser de otra manera&comma; es política&colon; Washington le ha dado la espalda a la regulación de la IA&comma; y Anthropic reconoce en su blog que el clima antiregulatorio actual hace que sus propias salvaguardas resulten asimétricas respecto al resto del sector&period;<&sol;p>&NewLine;<p>Paradoja&period; Desde el punto de vista de Anthropic&comma; no es una renuncia a la seguridad&comma; sino una decisión tomada en base a ella&period; Su razonamiento&colon; si los actores que son más responsables &lpar;ellos se meten en este saco&comma; lógicamente&rpar; se detienen mientras los menos cuidadosos siguen adelante&comma; el resultado neto es &OpenCurlyDoubleQuote;un mundo menos seguro”&period;<&sol;p>&NewLine;<p>La lógica tiene cierta coherencia&comma; pero también supone aceptar que la seguridad pasa a depender de lo que haga la competencia&period; Y eso sí es un juego muy peligroso&period;<&sol;p>&NewLine;<p>Contexto&period; Anthropic fue fundada por exdirectivos de OpenAI&comma; entre ellos Dario Amodei&comma; que abandonaron esa empresa precisamente por considerar que no prestaba suficiente atención a los riesgos de la IA&period; La nueva política llega en un momento en el que varios investigadores de seguridad han dejado la compañía&period; Tal y como compartía el Wall Street Journal&comma; uno de ellos&comma; Mrinank Sharma&comma; escribió este mismo mes una carta a sus colegas diciendo que &&num;8220&semi;el mundo está en peligro&&num;8221&semi; a causa de la IA&comma; antes de anunciar su marcha&period; De hecho&comma; según fuentes cercanas al medio&comma; su salida estaría relacionada en parte con esta decisión&period;<&sol;p>&NewLine;<p> En Xataka<&sol;p>&NewLine;<p> Una IA publica 11&period;000 podcasts al día copiando a periodistas locales&period; Y de momento no hay forma de parar la avalancha<&sol;p>&NewLine;<p>Qué pasa con el Pentágono&period; El anuncio llega en plena tensión con el Pentágono&period; El secretario de Defensa estadounidense&comma; Pete Hegseth&comma; dio a Anthropic un ultimátum el mismo martes en que se hizo público el cambio de política&colon; modificar sus líneas rojas sobre el uso de Claude o arriesgarse a perder un contrato de 200 millones de dólares con el Departamento de Defensa&period; Desde Anthropic han dejado claro que ambos asuntos son independientes&comma; pero la coincidencia temporal no ha pasado desapercibida&period;<&sol;p>&NewLine;<p>Qué queda de la política de seguridad&period; No es un abandono total&period; Anthropic mantiene el compromiso de retrasar el desarrollo o despliegue de modelos &&num;8220&semi;altamente capaces&&num;8221&semi; en circunstancias específicas&comma; y se compromete a publicar informes detallados de riesgo cada tres o seis meses&comma; verificados externamente&period; La compañía también separa ahora sus propias directrices internas de sus recomendaciones para el resto del sector&comma; reconociendo implícitamente que la apuesta por una &&num;8220&semi;carrera hacia arriba&&num;8221&semi;&comma; en la que otras empresas están adoptando&comma; no ha funcionado como esperaban&period;<&sol;p>&NewLine;<p>Imagen de portada &vert; Wikimedia Commons y Anthropic<&sol;p>&NewLine;<p>En Xataka &vert; EEUU tiene un mensaje para las empresas de IA&colon; en caso de necesidad&comma; esa IA es del Estado<&sol;p>&NewLine;<p> &&num;8211&semi; La noticia<&sol;p>&NewLine;<p> Anthropic ha abandonado su principio más importante&colon; ya no pausará modelos peligrosos si la competencia los saca antes <&sol;p>&NewLine;<p> fue publicada originalmente en<&sol;p>&NewLine;<p> Xataka <&sol;p>&NewLine;<p> por<br &sol;>&NewLine; Antonio Vallejo<&sol;p>&NewLine;<p> &period;   <&sol;p>&NewLine;<p>&ZeroWidthSpace;   <&sol;p>&NewLine;<p>&ZeroWidthSpace; <&sol;p>&NewLine;

Leave a Reply

Your email address will not be published. Required fields are marked *

Noticias Importantes

Copyright © 2017 ERM DIGITAL. powered by ERM.