Ciencia y Tecnología
“El mundo está en peligro”: el responsable de seguridad de Anthropic abandona la empresa para dedicarse a escribir poesía
<p>
 <img src="https://i.blogs.es/effc80/anthropic-y-la-poesia/1024_2000.jpeg" alt='"El mundo está en peligro": el responsable de seguridad de Anthropic abandona la empresa para dedicarse a escribir poesía'>
 </p>
<p>En un movimiento más propio del &#8220;<a class="text-outboundlink" href="https://www.xataka.com/magnet/hay-pinguino-nihilista-que-decidio-abrazar-muerte-segura-internet-lleva-semanas-obsesionado" data-vars-post-title="La humanidad ha arrancado 2026 preguntándose si existen o no los pingüinos nihilistas. Y tiene todo el sentido" data-vars-post-url="https://www.xataka.com/magnet/hay-pinguino-nihilista-que-decidio-abrazar-muerte-segura-internet-lleva-semanas-obsesionado">pingüino nihilista</a>&#8221; que del responsable de seguridad de uno de los principales protagonistas del desarrollo de la IA, Mrinank Sharma, jefe de seguridad de inteligencia artificial en Anthropic ha anunciado su renuncia con una carta pública <a rel="noopener, noreferrer" href="https://x.com/MrinankSharma/status/2020881722003583421?s=20">en su perfil de X</a> y consagrará su vida a escribir poesía.</p>
<p><!-- BREAK 1 --></p>
<p>En su comunicado, Sharma no solo explicó por qué deja la compañía que desarrolla los modelos de <a class="text-outboundlink" href="https://www.xataka.com/basics/claude-que-como-funciona-que-mejor-que-no-que-chatgpt-competencia" data-vars-post-title="Claude: qué es, cómo funciona y en qué es mejor (y en qué no) que ChatGPT y la competencia " data-vars-post-url="https://www.xataka.com/basics/claude-que-como-funciona-que-mejor-que-no-que-chatgpt-competencia">Claude</a>, sino que describió el estado actual del desarrollo de la IA, con un lenguaje que mezcla alarma con reflexión personal. &#8220;El mundo está en peligro&#8221;, aseguraba el ya exdirectivo de Anthropic.</p>
<p><strong>El contexto: quién es y qué hacía en Anthropic</strong>. Mrinank Sharma dirigía el <a rel="noopener, noreferrer" href="https://alignment.anthropic.com/2025/introducing-safeguards-research-team/">Safeguards Research Team</a> de Anthropic, un grupo de investigación centrado en estudiar los riesgos asociados a sistemas de IA.</p>
<p><!-- BREAK 2 --></p>
<p>Dentro de Anthropic, el trabajo de Sharma incluía desarrollar defensas frente a riesgos como el bioterrorismo asistido por IA y estudiar fenómenos como la <a rel="noopener, noreferrer" href="https://www.brookings.edu/articles/breaking-the-ai-mirror/">sicofancia</a> (la tendencia de los modelos de IA a la <a class="text-outboundlink" href="https://www.xataka.com/otros/ia-aduladora-problema-se-agrava-a-medida-que-crece-estos-investigadores-quieren-solucionarlo" data-vars-post-title="Cuanto más sofisticada es una inteligencia artificial, más te da la razón. Es un problema para todos" data-vars-post-url="https://www.xataka.com/otros/ia-aduladora-problema-se-agrava-a-medida-que-crece-estos-investigadores-quieren-solucionarlo">adulación del usuario</a>), así como investigar cómo la IA puede influir en <a class="text-outboundlink" href="https://www.xataka.com/robotica-e-ia/unos-investigadores-creen-que-ia-nos-esta-volviendo-tontos-llevamos-escuchando-calculadora" data-vars-post-title="Si la pregunta es si la IA nos está volviendo tontos, la respuesta es mucho más compleja de lo que parece" data-vars-post-url="https://www.xataka.com/robotica-e-ia/unos-investigadores-creen-que-ia-nos-esta-volviendo-tontos-llevamos-escuchando-calculadora">la percepción humana</a> y cambiar <a class="text-outboundlink" href="https://www.xataka.com/robotica-e-ia/dos-anos-usando-chatgpt-he-empezado-a-pedirle-consejos-personalizados-claramente-sabe-demasiado-nosotros" data-vars-post-title="Tras dos años usando ChatGPT he empezado a pedirle consejos personalizados. Claramente sabe demasiado sobre nosotros " data-vars-post-url="https://www.xataka.com/robotica-e-ia/dos-anos-usando-chatgpt-he-empezado-a-pedirle-consejos-personalizados-claramente-sabe-demasiado-nosotros">comportamientos culturales</a>.</p>
<div class="article-asset article-asset-normal article-asset-center">
<div class="desvio-container">
<div class="desvio">
<div class="desvio-figure js-desvio-figure">
 <a href="https://www.xataka.com/empresas-y-economia/salarios-tech-espana-se-mueven-a-dos-velocidades-ia-pisa-acelerador-echan-freno" class="pivot-outboundlink" data-vars-post-title="Los salarios de tecnología en España ya no suben al mismo ritmo. La IA determina qué salarios suben más"><br />
 <img alt="Los salarios de tecnología en España ya no suben al mismo ritmo. La IA determina qué salarios suben más" width="375" height="142" src="https://i.blogs.es/228e3b/hack-capital-uv5_bsypfum-unsplash/375_142.jpeg"><br />
 </a>
 </div>
<div class="desvio-summary">
<div class="desvio-taxonomy js-desvio-taxonomy">
 <a href="https://www.xataka.com/empresas-y-economia/salarios-tech-espana-se-mueven-a-dos-velocidades-ia-pisa-acelerador-echan-freno" class="desvio-taxonomy-anchor pivot-outboundlink" data-vars-post-title="Los salarios de tecnología en España ya no suben al mismo ritmo. La IA determina qué salarios suben más">En Xataka</a>
 </div>
<p> <a href="https://www.xataka.com/empresas-y-economia/salarios-tech-espana-se-mueven-a-dos-velocidades-ia-pisa-acelerador-echan-freno" class="desvio-title js-desvio-title pivot-outboundlink" data-vars-post-title="Los salarios de tecnología en España ya no suben al mismo ritmo. La IA determina qué salarios suben más">Los salarios de tecnología en España ya no suben al mismo ritmo. La IA determina qué salarios suben más</a>
 </div>
</p></div>
</p></div>
</div>
<p><strong>Se va, pero deja un mensaje</strong>. La carta, casi criptica, que Sharma <a rel="noopener, noreferrer" href="https://x.com/MrinankSharma/status/2020881722003583421?s=20">publicó en X</a> se hizo rápidamente viral por los mensajes que contenía. En ella, expresó sus preocupaciones con un tono que <a class="text-outboundlink" href="https://www.xataka.com/robotica-e-ia/anthropic-ha-reescrito-su-constitucion-25-000-palabras-para-claude-manual-como-debe-comportarse-ia" data-vars-post-title='Anthropic ha reescrito su "Constitución" de 25.000 palabras para Claude. Es el manual de cómo debe comportarse la IA ' data-vars-post-url="https://www.xataka.com/robotica-e-ia/anthropic-ha-reescrito-su-constitucion-25-000-palabras-para-claude-manual-como-debe-comportarse-ia">trasciende lo técnico</a><a class="text-outboundlink" href="https://www.xataka.com/robotica-e-ia/anthropic-ha-reescrito-su-constitucion-25-000-palabras-para-claude-manual-como-debe-comportarse-ia" data-vars-post-title='Anthropic ha reescrito su "Constitución" de 25.000 palabras para Claude. Es el manual de cómo debe comportarse la IA ' data-vars-post-url="https://www.xataka.com/robotica-e-ia/anthropic-ha-reescrito-su-constitucion-25-000-palabras-para-claude-manual-como-debe-comportarse-ia">.</a> Una de las citas que más ha llamado la atención: &#8220;El mundo está en peligro. Y no solo por la IA, o las armas biológicas, sino por una serie de crisis interconectadas que se están desarrollando en este mismo momento&#8221;.</p>
<p><!-- BREAK 3 --></p>
<p>Más allá de la literalidad casi apocalíptica, Sharma advirtió que la humanidad se estaba acercando a <a class="text-outboundlink" href="https://www.xataka.com/robotica-e-ia/compilador-c-podia-costar-2-millones-dolares-tardar-2-anos-claude-opus-4-6-ha-hecho-dos-semanas-20-000-dolares" data-vars-post-title="Crear un compilador de C costaba 2 millones de dólares y tardaba 2 años. Claude Opus 4.6 lo ha hecho en dos semanas por 20.000 dólares" data-vars-post-url="https://www.xataka.com/robotica-e-ia/compilador-c-podia-costar-2-millones-dolares-tardar-2-anos-claude-opus-4-6-ha-hecho-dos-semanas-20-000-dolares">un punto crítico</a> en el que el desarrollo de la IA se estaba enfrentando a dilemas éticos para quienes la desarrollan &#8220;nuestra sabiduría debe crecer al mismo ritmo que nuestra capacidad para afectar el mundo, de lo contrario enfrentaremos las consecuencias&#8221;.</p>
<p><!-- BREAK 4 --></p>
<p><strong>Trabajar para quedarte sin trabajo</strong>. Sharma no es el único que se plantea ese dilema ético. Según <a rel="noopener, noreferrer" href="https://www.telegraph.co.uk/business/2026/02/05/ai-apocalyptic-jobs-prophecy-about-to-become-reality/">fuentes</a> de <em>The Telegraph</em>, otros empleados de Anthropic han manifestado estar preocupados por el enorme salto evolutivo de los últimos modelos de IA. &#8220;Me siento como si viniera a trabajar todos los días para <a class="text-outboundlink" href="https://www.xataka.com/empresas-y-economia/elon-musk-era-mayor-defensor-jornadas-120-horas-ahora-opina-que-20-anos-trabajar-sera-opcional" data-vars-post-title='"Trabajar será opcional": Elon Musk ha pasado de ser un ferviente partidario del 996 a creer en la renta básica universal' data-vars-post-url="https://www.xataka.com/empresas-y-economia/elon-musk-era-mayor-defensor-jornadas-120-horas-ahora-opina-que-20-anos-trabajar-sera-opcional">quedarme sin trabajo</a>&#8220;, reconocía uno de los empleados al medio británico.</p>
<p><!-- BREAK 5 --></p>
<p>En cierto modo es así, ya que estos empleados están trabajando en el desarrollo de una tecnología que, con toda probabilidad, <a class="text-outboundlink" href="https://www.xataka.com/empresas-y-economia/ia-prometia-liberar-trabajo-tedioso-a-empleados-veteranos-realidad-les-esta-cargando-tareas" data-vars-post-title="Creíamos que la IA iba a jubilar anticipadamente a toda una generación de trabajadores. Está pasando lo contrario" data-vars-post-url="https://www.xataka.com/empresas-y-economia/ia-prometia-liberar-trabajo-tedioso-a-empleados-veteranos-realidad-les-esta-cargando-tareas">cambie la naturaleza</a> de su trabajo, y <a class="text-outboundlink" href="https://www.xataka.com/robotica-e-ia/elon-musk-sam-altman-auguraban-que-ia-obligara-a-establecer-renta-basica-universal-reino-unido-esta-considerando" data-vars-post-title="Si la IA nos va a dejar sin trabajo, en Reino Unido ya están discutiendo en serio la solución: una renta básica universal" data-vars-post-url="https://www.xataka.com/robotica-e-ia/elon-musk-sam-altman-auguraban-que-ia-obligara-a-establecer-renta-basica-universal-reino-unido-esta-considerando">el de millones de personas</a>, a pocos años vista.</p>
<p><!-- BREAK 6 --></p>
<div class="article-asset article-asset-normal article-asset-center">
<div class="desvio-container">
<div class="desvio">
<div class="desvio-figure js-desvio-figure">
 <a href="https://www.xataka.com/robotica-e-ia/anthropic-hace-ironica-advertencia-a-candidatos-sus-vacantes-empleo-les-rogamos-que-no-usen-asistentes-ia" class="pivot-outboundlink" data-vars-post-title='Tras convertirse en el gran rival de OpenAI, Anthropic tiene un mensaje para sus futuros empleados: "no usen asistentes de IA"'><br />
 <img alt='Tras convertirse en el gran rival de OpenAI, Anthropic tiene un mensaje para sus futuros empleados: "no usen asistentes de IA"' width="375" height="142" src="https://i.blogs.es/0a512f/anthropic-y-la-ia/375_142.jpeg"><br />
 </a>
 </div>
<div class="desvio-summary">
<div class="desvio-taxonomy js-desvio-taxonomy">
 <a href="https://www.xataka.com/robotica-e-ia/anthropic-hace-ironica-advertencia-a-candidatos-sus-vacantes-empleo-les-rogamos-que-no-usen-asistentes-ia" class="desvio-taxonomy-anchor pivot-outboundlink" data-vars-post-title='Tras convertirse en el gran rival de OpenAI, Anthropic tiene un mensaje para sus futuros empleados: "no usen asistentes de IA"'>En Xataka</a>
 </div>
<p> <a href="https://www.xataka.com/robotica-e-ia/anthropic-hace-ironica-advertencia-a-candidatos-sus-vacantes-empleo-les-rogamos-que-no-usen-asistentes-ia" class="desvio-title js-desvio-title pivot-outboundlink" data-vars-post-title='Tras convertirse en el gran rival de OpenAI, Anthropic tiene un mensaje para sus futuros empleados: "no usen asistentes de IA"'>Tras convertirse en el gran rival de OpenAI, Anthropic tiene un mensaje para sus futuros empleados: &#8220;no usen asistentes de IA&#8221;</a>
 </div>
</p></div>
</p></div>
</div>
<p><strong>¿Eso es bueno o es malo?</strong> Una primera lectura de la carta deja la sensación de que estos trabajadores están desarrollando el arma que destruirá a la humanidad. Sin embargo, una lectura entre líneas deja a Anthropic en una situación pionera frente a sus rivales de OpenAI, Microsoft o xAI: están logrando <a class="text-outboundlink" href="https://www.xataka.com/robotica-e-ia/programacion-nuevo-tablero-ia-openai-anthropic-han-dejado-claro-gpt-5-3-codex-claude-opus-4-6" data-vars-post-title="La programación es el nuevo tablero de la IA: OpenAI y Anthropic lo han dejado claro con GPT-5.3-Codex y Claude Opus 4.6" data-vars-post-url="https://www.xataka.com/robotica-e-ia/programacion-nuevo-tablero-ia-openai-anthropic-han-dejado-claro-gpt-5-3-codex-claude-opus-4-6">avanzar a un ritmo</a> que abruma incluso a sus desarrolladores. Una sensación que no parece producirse en las plantillas de otras empresas. ¿Será que sus modelos no están <a class="text-outboundlink" href="https://www.xataka.com/empresas-y-economia/claude-se-ha-convertido-algo-que-rival-openai-su-nueva-amenaza-existencial" data-vars-post-title='"Tienes que probarlo para entenderlo": Claude se ha convertido en la mayor amenaza existencial de ChatGPT' data-vars-post-url="https://www.xataka.com/empresas-y-economia/claude-se-ha-convertido-algo-que-rival-openai-su-nueva-amenaza-existencial">en ese punto de evolución</a>?</p>
<p><!-- BREAK 7 --></p>
<p>&#8220;A lo largo de mi tiempo aquí, he visto repetidamente lo difícil que es permitir que nuestros valores guíen nuestras acciones. Constantemente enfrentamos presiones para dejar de lado lo que más importa&#8221;, escribía Sharma.</p>
<p><!-- BREAK 8 --></p>
<div class="article-asset-video article-asset-normal">
<div class="asset-content">
<div class="base-asset-video">
<div class="js-dailymotion"></div>
</p></div>
</p></div>
</div>
<p><strong>El giro poético</strong>. Además de las reflexiones sobre los riesgos globales que percibe, Sharma anunció que su próximo paso profesional será muy distinto al que tenía hasta ahora. En su carta mencionó su intención de dedicar tiempo a lo que él denominó &#8220;la práctica del discurso valiente&#8221; a través de la poesía. Este cambio de lA por la poesía <a rel="noopener, noreferrer" href="https://futurism.com/artificial-intelligence/anthropic-agents-automation">ha sido interpretado</a> como un signo de insatisfacción frente al ritmo y el enfoque imperantes en la industria tecnológica de la IA.</p>
<p><!-- BREAK 9 --></p>
<p>Al igual que Sharma, en las últimas semanas otras figuras clave en el desarrollo de las IA de Anthropic, han anunciado su dimisión. <a rel="noopener, noreferrer" href="https://x.com/HarshMeh1a/status/2019872855329309099?s=20">Harsh Mehta</a> y <a rel="noopener, noreferrer" href="https://x.com/bneyshabur/status/2019505961707401239?s=20">Behnam Neyshabur</a> también anunciaron hace unos días que abandonaban la compañía. Sin embargo, en estos casos, se hacía el anuncio de salida y, a renglón seguido, se anunciaba un nuevo proyecto de IA. Es decir, que lejos de los postulados éticos que se planteaba Sharma, su intención iba más en la línea de cavar en su propia mina de oro y no en la de otros.</p>
<p><!-- BREAK 10 --></p>
<p>En Xataka | <a class="text-outboundlink" href="https://www.xataka.com/robotica-e-ia/daniela-amodei-cofundadora-anthropic-estudiar-humanidades-sera-importante-que-nunca" data-vars-post-title='Daniela Amodei, cofundadora de Anthropic: "estudiar humanidades será más importante que nunca"' data-vars-post-url="https://www.xataka.com/robotica-e-ia/daniela-amodei-cofundadora-anthropic-estudiar-humanidades-sera-importante-que-nunca">Daniela Amodei, cofundadora de Anthropic: &#8220;estudiar humanidades será más importante que nunca&#8221;</a></p>
<p>Imagen | <a rel="noopener, noreferrer" href="https://www.mrinanksharma.net/">mrinank sharma</a>, Anthropic</p>
<p> &#8211; <br /> La noticia<br />
 <a href="https://www.xataka.com/robotica-e-ia/mundo-esta-peligro-responsable-seguridad-anthropic-abandona-empresa-para-dedicarse-a-escribir-poesia?utm_source=feedburner&;utm_medium=feed&;utm_campaign=11_Feb_2026"><br />
 <em> &#8220;El mundo está en peligro&#8221;: el responsable de seguridad de Anthropic abandona la empresa para dedicarse a escribir poesía </em><br />
 </a><br />
 fue publicada originalmente en<br />
 <a href="https://www.xataka.com/?utm_source=feedburner&;utm_medium=feed&;utm_campaign=11_Feb_2026"><br />
 <strong> Xataka </strong><br />
 </a><br />
 por <a href="https://www.xataka.com/autor/ruben-andres?utm_source=feedburner&;utm_medium=feed&;utm_campaign=11_Feb_2026"><br />
 Rubén Andrés<br />
 </a><br />
 . </p>
<p>​En un movimiento más propio del &#8220;pingüino nihilista&#8221; que del responsable de seguridad de uno de los principales protagonistas del desarrollo de la IA, Mrinank Sharma, jefe de seguridad de inteligencia artificial en Anthropic ha anunciado su renuncia con una carta pública en su perfil de X y consagrará su vida a escribir poesía.<br />
En su comunicado, Sharma no solo explicó por qué deja la compañía que desarrolla los modelos de Claude, sino que describió el estado actual del desarrollo de la IA, con un lenguaje que mezcla alarma con reflexión personal. &#8220;El mundo está en peligro&#8221;, aseguraba el ya exdirectivo de Anthropic.<br />
El contexto: quién es y qué hacía en Anthropic. Mrinank Sharma dirigía el Safeguards Research Team de Anthropic, un grupo de investigación centrado en estudiar los riesgos asociados a sistemas de IA.<br />
Dentro de Anthropic, el trabajo de Sharma incluía desarrollar defensas frente a riesgos como el bioterrorismo asistido por IA y estudiar fenómenos como la sicofancia (la tendencia de los modelos de IA a la adulación del usuario), así como investigar cómo la IA puede influir en la percepción humana y cambiar comportamientos culturales.</p>
<p> En Xataka</p>
<p> Los salarios de tecnología en España ya no suben al mismo ritmo. La IA determina qué salarios suben más</p>
<p>Se va, pero deja un mensaje. La carta, casi criptica, que Sharma publicó en X se hizo rápidamente viral por los mensajes que contenía. En ella, expresó sus preocupaciones con un tono que trasciende lo técnico. Una de las citas que más ha llamado la atención: &#8220;El mundo está en peligro. Y no solo por la IA, o las armas biológicas, sino por una serie de crisis interconectadas que se están desarrollando en este mismo momento&#8221;.</p>
<p>Más allá de la literalidad casi apocalíptica, Sharma advirtió que la humanidad se estaba acercando a un punto crítico en el que el desarrollo de la IA se estaba enfrentando a dilemas éticos para quienes la desarrollan &#8220;nuestra sabiduría debe crecer al mismo ritmo que nuestra capacidad para afectar el mundo, de lo contrario enfrentaremos las consecuencias&#8221;.</p>
<p>Trabajar para quedarte sin trabajo. Sharma no es el único que se plantea ese dilema ético. Según fuentes de The Telegraph, otros empleados de Anthropic han manifestado estar preocupados por el enorme salto evolutivo de los últimos modelos de IA. &#8220;Me siento como si viniera a trabajar todos los días para quedarme sin trabajo&#8221;, reconocía uno de los empleados al medio británico.</p>
<p>En cierto modo es así, ya que estos empleados están trabajando en el desarrollo de una tecnología que, con toda probabilidad, cambie la naturaleza de su trabajo, y el de millones de personas, a pocos años vista.</p>
<p> En Xataka</p>
<p> Tras convertirse en el gran rival de OpenAI, Anthropic tiene un mensaje para sus futuros empleados: &#8220;no usen asistentes de IA&#8221;</p>
<p>¿Eso es bueno o es malo? Una primera lectura de la carta deja la sensación de que estos trabajadores están desarrollando el arma que destruirá a la humanidad. Sin embargo, una lectura entre líneas deja a Anthropic en una situación pionera frente a sus rivales de OpenAI, Microsoft o xAI: están logrando avanzar a un ritmo que abruma incluso a sus desarrolladores. Una sensación que no parece producirse en las plantillas de otras empresas. ¿Será que sus modelos no están en ese punto de evolución?</p>
<p>&#8220;A lo largo de mi tiempo aquí, he visto repetidamente lo difícil que es permitir que nuestros valores guíen nuestras acciones. Constantemente enfrentamos presiones para dejar de lado lo que más importa&#8221;, escribía Sharma.</p>
<p>El giro poético. Además de las reflexiones sobre los riesgos globales que percibe, Sharma anunció que su próximo paso profesional será muy distinto al que tenía hasta ahora. En su carta mencionó su intención de dedicar tiempo a lo que él denominó &#8220;la práctica del discurso valiente&#8221; a través de la poesía. Este cambio de lA por la poesía ha sido interpretado como un signo de insatisfacción frente al ritmo y el enfoque imperantes en la industria tecnológica de la IA.</p>
<p>Al igual que Sharma, en las últimas semanas otras figuras clave en el desarrollo de las IA de Anthropic, han anunciado su dimisión. Harsh Mehta y Behnam Neyshabur también anunciaron hace unos días que abandonaban la compañía. Sin embargo, en estos casos, se hacía el anuncio de salida y, a renglón seguido, se anunciaba un nuevo proyecto de IA. Es decir, que lejos de los postulados éticos que se planteaba Sharma, su intención iba más en la línea de cavar en su propia mina de oro y no en la de otros.</p>
<p>En Xataka | Daniela Amodei, cofundadora de Anthropic: &#8220;estudiar humanidades será más importante que nunca&#8221;</p>
<p>Imagen | mrinank sharma, Anthropic</p>
<p> &#8211; La noticia</p>
<p> &#8220;El mundo está en peligro&#8221;: el responsable de seguridad de Anthropic abandona la empresa para dedicarse a escribir poesía </p>
<p> fue publicada originalmente en</p>
<p> Xataka </p>
<p> por<br />
 Rubén Andrés</p>
<p> . </p>
<p>​ </p>
<p>​ </p>