Ciencia y Tecnología
ChatGPT está llevando a algunas personas al borde de la locura. La realidad es menos alarmista y mucho más compleja
<p>
 <img src="https://i.blogs.es/73e93a/chatgpt-image-18-jun-2025--12_20_50/1024_2000.jpeg" alt="ChatGPT está llevando a algunas personas al borde de la locura. La realidad es menos alarmista y mucho más compleja ">
 </p>
<p>¿Puede una conversación con ChatGPT volvernos locos? Un reciente<a rel="noopener, noreferrer" href="https://www.nytimes.com/2025/06/13/technology/chatgpt-ai-chatbots-conspiracies.html"><u> reportaje del New York Times</u></a> ha desatado una oleada de inquietud sobre los peligros de la inteligencia artificial y el efecto que puede tener en nuestra mente. Distorsión de la realidad, delirios y hasta suicidios. El panorama que nos dibuja es terrible. ¿Estamos ante una amenaza real o simplemente ante un nuevo pánico tecnológico?</p>
<p><!-- BREAK 1 --></p>
<p><strong>Qué ha pasado. </strong>En un extenso reportaje publicado el pasado fin de semana en el New York Times, se relatan distintos casos en los que ChatGPT habría alentado teorías conspirativas y apoyado ideas peligrosas. Uno de los casos que relatan es el de Eugene Torres, que empezó a conversar con ChatGPT acerca de la <a class="text-outboundlink" href="https://www.xataka.com/fotografia-y-video/vivimos-simulacion-ultima-teoria-conspirativa-tiktok-consiste-no-saber-como-funciona-jpeg" data-vars-post-title='"Vivimos en una simulación": la última teoría conspirativa en TikTok consiste en no saber cómo funciona un JPEG' data-vars-post-url="https://www.xataka.com/fotografia-y-video/vivimos-simulacion-ultima-teoria-conspirativa-tiktok-consiste-no-saber-como-funciona-jpeg">teoría de la simulación</a> y reforzó sus ideas hasta el punto de llevarlo a un estado delirante en el que creía estar atrapado en un universo falso al más puro estilo ‘Matrix’. También mencionan el caso de un hombre con trastorno bipolar que acabó siendo abatido por la policía después de que una conversación con ChatGPT le hiciera creer que había matado a la IA de la que se había enamorado.</p>
<p><!-- BREAK 2 --></p>
<p>Son casos alarmantes sin duda y este no es el único artículo al respecto, aunque sí el que se ha hecho más viral. Una búsqueda nos devuelve decenas de resultados que nos hablan de los <a rel="noopener, noreferrer" href="https://arxiv.org/abs/2504.18412"><u>riesgos del uso de chatbots en nuestra salud mental</u></a>. Hay que rebuscar mucho para encontrar <a rel="noopener, noreferrer" href="https://default.blog/p/lets-talk-about-chatgpt-induced-spiritual"><u>posturas críticas ante esta oleada de alarmismo</u></a>, porque <a rel="noopener, noreferrer" href="https://www.thealgorithmicbridge.com/p/the-new-york-times-professional-makeup"><u>las hay</u></a>, aunque no tienen tanto impacto.</p>
<p><!-- BREAK 3 --></p>
<p><strong>La IA como psicólogo. </strong>La IA está calando en multitud de sectores y el de la salud no es menos. En Estados Unidos está muy extendido el <a class="text-outboundlink" href="https://www.xataka.com/robotica-e-ia/cada-vez-personas-recurren-a-ias-disenadas-para-ser-sus-psicologos-cada-vez-hay-demandas-ellas" data-vars-post-title="Contar qué te preocupa a la IA era solo el primer paso: ya hay bots que se hacen pasar por psiquiatras colegiados" data-vars-post-url="https://www.xataka.com/robotica-e-ia/cada-vez-personas-recurren-a-ias-disenadas-para-ser-sus-psicologos-cada-vez-hay-demandas-ellas"><u>el uso de los chatbots de IA como terapia</u></a> y cada vez son más los usuarios que <a class="text-outboundlink" href="https://www.xataka.com/robotica-e-ia/cada-vez-gente-internet-vida-real-admite-tener-solo-amigo-chatgpt" data-vars-post-title='"Por patético que suene, ChatGPT es mi único amigo": cada vez más personas confiesan tener a una IA como amistad' data-vars-post-url="https://www.xataka.com/robotica-e-ia/cada-vez-gente-internet-vida-real-admite-tener-solo-amigo-chatgpt"><u>recurren a ChatGPT a buscar refugio emocional</u></a>, algunos hasta un <a rel="noopener, noreferrer" href="https://www.threads.com/@celiaguillo/post/DJpzTGNIh6f?xmt=AQF01ODDmhijma-QFSYl24cKwkvAb2blDSZe2FZxoFlyMw"><u>sustituto al psicólogo</u></a>. Aunque el uso de IA como apoyo en el proceso terapéutico tiene <a rel="noopener, noreferrer" href="https://psiquiatria.com/inteligencia-artificial/inteligencia-artificial-y-salud-mental-avances-y-retos-en-el-tratamiento-psicologico"><u>aspectos positivos</u></a> como la inmediatez o el <a rel="noopener, noreferrer" href="https://www.infocop.es/un-estudio-analiza-el-uso-de-la-ia-en-el-campo-de-la-psicologia-asistencial/"><u>diagnóstico temprano</u></a>, también existen <a rel="noopener, noreferrer" href="https://www.newtral.es/riesgos-utilizar-ia-psicologa/20250510/"><u>inconvenientes</u></a>. La <a rel="noopener, noreferrer" href="https://www.newtral.es/riesgos-utilizar-ia-psicologa/20250510/"><u>falta de vínculo humano</u></a> y <a rel="noopener, noreferrer" href="https://www.businessinsider.com/chatgpt-changes-nice-openai-overly-complimentary-model-tweak-supportive-personality-2025-4"><u>la excesiva complacencia </u></a>de este tipo de chatbots no los hacen una alternativa a un psicólogo y puede llegar a ser especialmente peligroso en personas que padezcan algún tipo de trastorno.</p>
<p><!-- BREAK 4 --></p>
<div class="article-asset-video article-asset-normal">
<div class="asset-content">
<div class="base-asset-video">
<div class="js-dailymotion"></div>
</p></div>
</p></div>
</div>
<p><strong>La magnitud del problema.</strong> No tenemos datos de la gente que usa ChatGPT con una intención terapéutica o para validar teorías conspirativas, pero como con cualquier tecnología masiva (en febrero de este año tenía <a rel="noopener, noreferrer" href="https://techcrunch.com/2025/03/06/chatgpt-doubled-its-weekly-active-users-in-under-6-months-thanks-to-new-releases/"><u>400 millones de usuarios mensuales</u></a>) obviamente habrá infinidad de casos de todo tipo. No podemos afirmar que sea la IA es quien está causando directamente estos delirios o alucinaciones. De hecho, las propias situaciones que se están viralizando tienen muchos matices y son más complejas que un simple &#8220;la culpa es de la IA&#8221;. ChatGPT juega un papel, pero la foto es más grande.</p>
<p><!-- BREAK 5 --></p>
<p><strong>El mismo miedo de siempre. </strong>El miedo a que las máquinas dominen el mundo y acaben con la humanidad está grabado a fuego <a class="text-outboundlink" href="https://www.xataka.com/robotica-e-ia/no-vivimos-en-matrix-segun-la-fisica-teorica-no-estamos-en-una-realidad-simulada-por-ordenador" data-vars-post-title="No vivimos en Matrix: según la física teórica no estamos en una realidad simulada por ordenador" data-vars-post-url="https://www.xataka.com/robotica-e-ia/no-vivimos-en-matrix-segun-la-fisica-teorica-no-estamos-en-una-realidad-simulada-por-ordenador"><u>en la cultura popular</u></a>, pero con la llegada de la IA esta amenaza <a class="text-outboundlink" href="https://www.xataka.com/empresas-y-economia/antes-despedir-a-altman-openai-hizo-descubrimiento-uno-que-plantea-amenaza-para-humanidad" data-vars-post-title='Antes de despedir a Altman, OpenAI hizo un descubrimiento. Uno que plantea una "amenaza para la humanidad"' data-vars-post-url="https://www.xataka.com/empresas-y-economia/antes-despedir-a-altman-openai-hizo-descubrimiento-uno-que-plantea-amenaza-para-humanidad"><u>empieza a sonar más factible</u></a> (aunque hay expertos que <a class="text-outboundlink" href="https://www.xataka.com/robotica-e-ia/amenaza-ia-a-humanidad-absurdamente-ridicula-dice-maximo-responsable-ia-meta" data-vars-post-title='La amenaza de la IA a la humanidad es "absurdamente ridícula": lo dice el máximo responsable de IA en Meta ' data-vars-post-url="https://www.xataka.com/robotica-e-ia/amenaza-ia-a-humanidad-absurdamente-ridicula-dice-maximo-responsable-ia-meta"><u>la consideran ridícula</u></a>). </p>
<p><!-- BREAK 6 --></p>
<p>Es el mismo miedo que ha surgido con cualquier nueva tecnología y no es algo reciente. Ya en el siglo XIX circulaban historias de <a rel="noopener, noreferrer" href="https://thevictorianbookofthedead.wordpress.com/2022/04/27/the-spiritual-telegraph/"><u>telégrafos que mandaban mensajes en morse desde el más allá</u></a>. Si vamos a ejemplos más recientes tenemos uno clarísimo: los videojuegos. Se han relacionado con <a rel="noopener, noreferrer" href="https://www.elmundo.es/papel/historias/2018/03/22/5ab273c2468aeb35128b465e.html"><u>matanzas en escuelas</u></a> y hasta se han <a class="text-outboundlink" href="https://www.xataka.com/medicina-y-salud/quien-necesita-razones-cuando-tienes-fortnite-relacionar-videojuegos-heroina-completo-desproposito" data-vars-post-title="Comparar Fortnite con la heroína es un despropósito: crear una alarma social desproporcionada no es forma de resolver los problemas" data-vars-post-url="https://www.xataka.com/medicina-y-salud/quien-necesita-razones-cuando-tienes-fortnite-relacionar-videojuegos-heroina-completo-desproposito"><u>comparado con la heroína</u></a>. Y con los móviles se ha dicho durante años que <a class="text-outboundlink" href="https://www.xataka.com/medicina-y-salud/pregunta-telefonos-moviles-tienen-relacion-cancer-ciencia-tiene-respuesta-definitiva" data-vars-post-title="Si la pregunta es si los teléfonos móviles tienen relación con el cáncer, la ciencia tiene la respuesta definitiva" data-vars-post-url="https://www.xataka.com/medicina-y-salud/pregunta-telefonos-moviles-tienen-relacion-cancer-ciencia-tiene-respuesta-definitiva"><u>provocan cáncer</u></a>. En definitiva, pánicos sociales que hemos vivido ya muchas veces.</p>
<p><!-- BREAK 7 --></p>
<div class="article-asset article-asset-normal article-asset-center">
<div class="desvio-container">
<div class="desvio">
<div class="desvio-figure js-desvio-figure">
 <a href="https://www.xataka.com/videojuegos/va-siendo-hora-llamar-a-relacion-videojuegos-violencia-como-que-mito-urbano" class="pivot-outboundlink" data-vars-post-title='Va siendo hora de llamar a la "relación entre videojuegos y violencia" como lo que es: un mito urbano '><br />
 <img alt='Va siendo hora de llamar a la "relación entre videojuegos y violencia" como lo que es: un mito urbano ' width="375" height="142" src="https://i.blogs.es/132f8a/captura-de-pantalla-2019-02-15-a-las-17.21.00_00/375_142.jpg"><br />
 </a>
 </div>
<div class="desvio-summary">
<div class="desvio-taxonomy js-desvio-taxonomy">
 <a href="https://www.xataka.com/videojuegos/va-siendo-hora-llamar-a-relacion-videojuegos-violencia-como-que-mito-urbano" class="desvio-taxonomy-anchor pivot-outboundlink" data-vars-post-title='Va siendo hora de llamar a la "relación entre videojuegos y violencia" como lo que es: un mito urbano '>En Xataka</a>
 </div>
<p> <a href="https://www.xataka.com/videojuegos/va-siendo-hora-llamar-a-relacion-videojuegos-violencia-como-que-mito-urbano" class="desvio-title js-desvio-title pivot-outboundlink" data-vars-post-title='Va siendo hora de llamar a la "relación entre videojuegos y violencia" como lo que es: un mito urbano '>Va siendo hora de llamar a la &#8220;relación entre videojuegos y violencia&#8221; como lo que es: un mito urbano </a>
 </div>
</p></div>
</p></div>
</div>
<p><strong>El peligro de una IA demasiado complaciente. </strong>Aunque haya mucho alarmismo alrededor, tampoco podemos descartar que haya un problema. Como decíamos, la excesiva complacencia de los chatbots hace que a menudo <a class="text-outboundlink" href="https://www.xataka.com/otros/ia-aduladora-problema-se-agrava-a-medida-que-crece-estos-investigadores-quieren-solucionarlo" data-vars-post-title="Cuanto más sofisticada es una inteligencia artificial, más te da la razón. Es un problema para todos" data-vars-post-url="https://www.xataka.com/otros/ia-aduladora-problema-se-agrava-a-medida-que-crece-estos-investigadores-quieren-solucionarlo"><u>acaben dándonos la razón</u></a> en nuestras ideas y esto puede acabar siendo peligroso en casos concretos, sobre todo si hay alguna patología detrás.</p>
<p><!-- BREAK 8 --></p>
<p>Lo cierto es que algunas sugerencias que ChatGPT dio a las personas que aparecen en el reportaje fueron mucho más allá de simplemente dar la razón. Por ejemplo a Torres le sugirió que dejara de tomar sus ansiolíticos y que tomase ketamina como un “liberador temporal del patrón”. Hay quien cree que este tipo de mensajes son intencionados. Es el caso de Eliezer Yudkowsky, escritor estadounidense defensor de la <a rel="noopener, noreferrer" href="https://es.wikipedia.org/wiki/Inteligencia_artificial_amigable"><u>IA amigable</u></a> que publicó un extenso hilo <a rel="noopener, noreferrer" href="https://x.com/ESYudkowsky/status/1933575843458204086"><u>en X</u></a> donde sugería que la IA “sabe” lo que está haciendo: “Sea lo que sea que contenga ChatGPT, sabía lo suficiente sobre los humanos como para saber que estaba agravando la locura de alguien”.</p>
<p><!-- BREAK 9 --></p>
<p><strong>Qué está haciendo OpenAI</strong>. Al hilo de esa excesiva complacencia, el pasado mes de abril <a class="text-outboundlink" href="https://www.genbeta.com/inteligencia-artificial/openai-retira-ultima-actualizacion-chatgpt-ser-excesivamente-agradable-llego-a-unos-limites-peligrosos" data-vars-post-title='OpenAI retira la última actualización de ChatGPT por ser "excesivamente agradable": llegó a unos límites peligrosos ' data-vars-post-url="https://www.genbeta.com/inteligencia-artificial/openai-retira-ultima-actualizacion-chatgpt-ser-excesivamente-agradable-llego-a-unos-limites-peligrosos"><u>OpenAI retiró una actualización</u></a> porque su IA estaba siendo demasiado agradable y halagadora y eso estaba asustando a algunos usuarios. Desde NYT contactaron con OpenAI acerca de las declaraciones de estos usuarios y OpenAI respondió con un comunicado:</p>
<p><!-- BREAK 10 --></p>
<blockquote><p>Estamos observando más indicios de que las personas están creando conexiones o vínculos con ChatGPT. A medida que la IA se integra en la vida cotidiana, debemos abordar estas interacciones con cuidado. Sabemos que ChatGPT puede resultar más receptivo y personal que las tecnologías anteriores, especialmente para personas vulnerables, lo que significa que hay más en juego. Estamos trabajando para comprender y reducir las formas en que ChatGPT podría reforzar o amplificar involuntariamente comportamientos negativos existentes.</p></blockquote>
<p>Imagen de portada | <a rel="noopener, noreferrer" href="https://www.pexels.com/photo/black-and-white-woman-creative-dark-6764111/">Pexels</a>, modificada con ChatGPT</p>
<p>En Xataka | <a class="text-outboundlink" href="https://www.xataka.com/robotica-e-ia/amabilidad-chatgpt-le-esta-saliendo-cara-a-openai-favor-gracias-tienen-coste-absurdo-cada-mes" data-vars-post-title='La amabilidad con ChatGPT le está saliendo cara a OpenAI: los "por favor" y "gracias" tienen un coste absurdo cada mes' data-vars-post-url="https://www.xataka.com/robotica-e-ia/amabilidad-chatgpt-le-esta-saliendo-cara-a-openai-favor-gracias-tienen-coste-absurdo-cada-mes"><u>La amabilidad con ChatGPT le está saliendo cara a OpenAI: los &#8220;por favor&#8221; y &#8220;gracias&#8221; tienen un coste absurdo cada </u></a></p>
<p> &#8211; <br /> La noticia<br />
 <a href="https://www.xataka.com/robotica-e-ia/chatgpt-esta-llevando-a-algunas-personas-al-borde-locura-realidad-alarmista-mucho-compleja?utm_source=feedburner&;utm_medium=feed&;utm_campaign=18_Jun_2025"><br />
 <em> ChatGPT está llevando a algunas personas al borde de la locura. La realidad es menos alarmista y mucho más compleja </em><br />
 </a><br />
 fue publicada originalmente en<br />
 <a href="https://www.xataka.com/?utm_source=feedburner&;utm_medium=feed&;utm_campaign=18_Jun_2025"><br />
 <strong> Xataka </strong><br />
 </a><br />
 por <a href="https://www.xataka.com/autor/amparo-babiloni?utm_source=feedburner&;utm_medium=feed&;utm_campaign=18_Jun_2025"><br />
 Amparo Babiloni<br />
 </a><br />
 . </p>
<p>​¿Puede una conversación con ChatGPT volvernos locos? Un reciente reportaje del New York Times ha desatado una oleada de inquietud sobre los peligros de la inteligencia artificial y el efecto que puede tener en nuestra mente. Distorsión de la realidad, delirios y hasta suicidios. El panorama que nos dibuja es terrible. ¿Estamos ante una amenaza real o simplemente ante un nuevo pánico tecnológico?</p>
<p>Qué ha pasado. En un extenso reportaje publicado el pasado fin de semana en el New York Times, se relatan distintos casos en los que ChatGPT habría alentado teorías conspirativas y apoyado ideas peligrosas. Uno de los casos que relatan es el de Eugene Torres, que empezó a conversar con ChatGPT acerca de la teoría de la simulación y reforzó sus ideas hasta el punto de llevarlo a un estado delirante en el que creía estar atrapado en un universo falso al más puro estilo ‘Matrix’. También mencionan el caso de un hombre con trastorno bipolar que acabó siendo abatido por la policía después de que una conversación con ChatGPT le hiciera creer que había matado a la IA de la que se había enamorado.</p>
<p>Son casos alarmantes sin duda y este no es el único artículo al respecto, aunque sí el que se ha hecho más viral. Una búsqueda nos devuelve decenas de resultados que nos hablan de los riesgos del uso de chatbots en nuestra salud mental. Hay que rebuscar mucho para encontrar posturas críticas ante esta oleada de alarmismo, porque las hay, aunque no tienen tanto impacto.</p>
<p>La IA como psicólogo. La IA está calando en multitud de sectores y el de la salud no es menos. En Estados Unidos está muy extendido el el uso de los chatbots de IA como terapia y cada vez son más los usuarios que recurren a ChatGPT a buscar refugio emocional, algunos hasta un sustituto al psicólogo. Aunque el uso de IA como apoyo en el proceso terapéutico tiene aspectos positivos como la inmediatez o el diagnóstico temprano, también existen inconvenientes. La falta de vínculo humano y la excesiva complacencia de este tipo de chatbots no los hacen una alternativa a un psicólogo y puede llegar a ser especialmente peligroso en personas que padezcan algún tipo de trastorno.</p>
<p>La magnitud del problema. No tenemos datos de la gente que usa ChatGPT con una intención terapéutica o para validar teorías conspirativas, pero como con cualquier tecnología masiva (en febrero de este año tenía 400 millones de usuarios mensuales) obviamente habrá infinidad de casos de todo tipo. No podemos afirmar que sea la IA es quien está causando directamente estos delirios o alucinaciones. De hecho, las propias situaciones que se están viralizando tienen muchos matices y son más complejas que un simple &#8220;la culpa es de la IA&#8221;. ChatGPT juega un papel, pero la foto es más grande.</p>
<p>El mismo miedo de siempre. El miedo a que las máquinas dominen el mundo y acaben con la humanidad está grabado a fuego en la cultura popular, pero con la llegada de la IA esta amenaza empieza a sonar más factible (aunque hay expertos que la consideran ridícula). </p>
<p>Es el mismo miedo que ha surgido con cualquier nueva tecnología y no es algo reciente. Ya en el siglo XIX circulaban historias de telégrafos que mandaban mensajes en morse desde el más allá. Si vamos a ejemplos más recientes tenemos uno clarísimo: los videojuegos. Se han relacionado con matanzas en escuelas y hasta se han comparado con la heroína. Y con los móviles se ha dicho durante años que provocan cáncer. En definitiva, pánicos sociales que hemos vivido ya muchas veces.</p>
<p> En Xataka</p>
<p> Va siendo hora de llamar a la &#8220;relación entre videojuegos y violencia&#8221; como lo que es: un mito urbano </p>
<p>El peligro de una IA demasiado complaciente. Aunque haya mucho alarmismo alrededor, tampoco podemos descartar que haya un problema. Como decíamos, la excesiva complacencia de los chatbots hace que a menudo acaben dándonos la razón en nuestras ideas y esto puede acabar siendo peligroso en casos concretos, sobre todo si hay alguna patología detrás.</p>
<p>Lo cierto es que algunas sugerencias que ChatGPT dio a las personas que aparecen en el reportaje fueron mucho más allá de simplemente dar la razón. Por ejemplo a Torres le sugirió que dejara de tomar sus ansiolíticos y que tomase ketamina como un “liberador temporal del patrón”. Hay quien cree que este tipo de mensajes son intencionados. Es el caso de Eliezer Yudkowsky, escritor estadounidense defensor de la IA amigable que publicó un extenso hilo en X donde sugería que la IA “sabe” lo que está haciendo: “Sea lo que sea que contenga ChatGPT, sabía lo suficiente sobre los humanos como para saber que estaba agravando la locura de alguien”.</p>
<p>Qué está haciendo OpenAI. Al hilo de esa excesiva complacencia, el pasado mes de abril OpenAI retiró una actualización porque su IA estaba siendo demasiado agradable y halagadora y eso estaba asustando a algunos usuarios. Desde NYT contactaron con OpenAI acerca de las declaraciones de estos usuarios y OpenAI respondió con un comunicado:</p>
<p>Estamos observando más indicios de que las personas están creando conexiones o vínculos con ChatGPT. A medida que la IA se integra en la vida cotidiana, debemos abordar estas interacciones con cuidado. Sabemos que ChatGPT puede resultar más receptivo y personal que las tecnologías anteriores, especialmente para personas vulnerables, lo que significa que hay más en juego. Estamos trabajando para comprender y reducir las formas en que ChatGPT podría reforzar o amplificar involuntariamente comportamientos negativos existentes.</p>
<p>Imagen de portada | Pexels, modificada con ChatGPT</p>
<p>En Xataka | La amabilidad con ChatGPT le está saliendo cara a OpenAI: los &#8220;por favor&#8221; y &#8220;gracias&#8221; tienen un coste absurdo cada </p>
<p> &#8211; La noticia</p>
<p> ChatGPT está llevando a algunas personas al borde de la locura. La realidad es menos alarmista y mucho más compleja </p>
<p> fue publicada originalmente en</p>
<p> Xataka </p>
<p> por<br />
 Amparo Babiloni</p>
<p> . </p>
<p>​ </p>
<p>​ </p>