Ciencia y Tecnología

Delirios en directo y suicidios alimentados por la IA: qué está pasando realmente con la IA y la salud mental

Published

on

<p>&NewLine; <img src&equals;"https&colon;&sol;&sol;i&period;blogs&period;es&sol;11f697&sol;pexels-pixabay-236151&sol;1024&lowbar;2000&period;jpeg" alt&equals;"Delirios en directo y suicidios alimentados por la IA&colon; qué está pasando realmente con la IA y la salud mental ">&NewLine; <&sol;p>&NewLine;<p>Una mujer llamada <a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;www&period;threads&period;com&sol;&commat;elliotthepotter&sol;post&sol;DNEElTZP4ub&sol;video-this-is-kendra-the-woman-going-viral-for-claiming-her-psychiatrist-abused-her-wh&quest;hl&equals;es"><u>Kendra se ha hecho viral en TikTok<&sol;u><&sol;a>&period; ¿El motivo&quest; Probablemente sea el primer caso de brote psicótico alimentado por la IA que estamos viendo en vivo y en directo&period; Un adolescente <a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;www&period;nytimes&period;com&sol;2025&sol;08&sol;26&sol;technology&sol;chatgpt-openai-suicide&period;html"><u>discutió sus planes de suicidio con ChatGPT<&sol;u><&sol;a> y <a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;www&period;bbc&period;com&sol;news&sol;articles&sol;cgerwp7rdlvo"><u>sus padres han demandado a OpenAI<&sol;u><&sol;a>&period; Son sólo dos casos recientes&comma; pero cada vez hay más noticias que culpan a la IA de provocar delirios o incluso muertes&period; Ya vimos que <a class&equals;"text-outboundlink" href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;chatgpt-esta-llevando-a-algunas-personas-al-borde-locura-realidad-alarmista-mucho-compleja" data-vars-post-title&equals;"ChatGPT está llevando a algunas personas al borde de la locura&period; La realidad es menos alarmista y mucho más compleja " data-vars-post-url&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;chatgpt-esta-llevando-a-algunas-personas-al-borde-locura-realidad-alarmista-mucho-compleja"><u>la realidad es mucho más compleja<&sol;u><&sol;a>&comma; pero está claro que hay un debate sobre los efectos de la IA en nuestra salud mental&period; ¿Qué está pasando&quest;<&sol;p>&NewLine;<p><&excl;-- BREAK 1 --><&sol;p>&NewLine;<p><strong>El caso Adam Raine<&sol;strong>&period; Lo cuentan en el <a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;www&period;nytimes&period;com&sol;2025&sol;08&sol;26&sol;technology&sol;chatgpt-openai-suicide&period;html"><u>New York Times<&sol;u><&sol;a>&period;  Adam empezó a usar ChatGPT para que le ayudara con los deberes&comma; pero más tarde sus conversaciones tomaron un giro oscuro&period; Tras su muerte&comma; su padre revisó su móvil y descubrió que había estado preguntándole a la IA detalles sobre cómo suicidarse&period; A pesar de que ChatGPT identificó los mensajes como peligrosos y le insistió varias veces en buscar ayuda&comma; Adam logró saltarse estas advertencias diciéndole que no iba a hacerlo de verdad&comma; sino que estaba recabando información para una historia que quería escribir&period; Sus padres han demandado a OpenAI argumentando que la IA validó los  &OpenCurlyDoubleQuote;pensamientos más dañinos y autodesctructivos” de su hijo&period;<&sol;p>&NewLine;<p><&excl;-- BREAK 2 --><&sol;p>&NewLine;<div class&equals;"article-asset article-asset-normal article-asset-center">&NewLine;<div class&equals;"desvio-container">&NewLine;<div class&equals;"desvio">&NewLine;<div class&equals;"desvio-figure js-desvio-figure">&NewLine; <a href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;tres-parejas-se-fueron-escapada-romantica-llamativo-que-parejas-eran-humano-ia" class&equals;"pivot-outboundlink" data-vars-post-title&equals;"Los humanos nos estamos enamorando de IAs y no son casos aislados&colon; ya se cuentan por miles"><br &sol;>&NewLine; <img alt&equals;"Los humanos nos estamos enamorando de IAs y no son casos aislados&colon; ya se cuentan por miles" width&equals;"375" height&equals;"142" src&equals;"https&colon;&sol;&sol;i&period;blogs&period;es&sol;a8ceb8&sol;pexels-roman-odintsov-4555321&sol;375&lowbar;142&period;jpeg"><br &sol;>&NewLine; <&sol;a>&NewLine; <&sol;div>&NewLine;<div class&equals;"desvio-summary">&NewLine;<div class&equals;"desvio-taxonomy js-desvio-taxonomy">&NewLine; <a href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;tres-parejas-se-fueron-escapada-romantica-llamativo-que-parejas-eran-humano-ia" class&equals;"desvio-taxonomy-anchor pivot-outboundlink" data-vars-post-title&equals;"Los humanos nos estamos enamorando de IAs y no son casos aislados&colon; ya se cuentan por miles">En Xataka<&sol;a>&NewLine; <&sol;div>&NewLine;<p> <a href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;tres-parejas-se-fueron-escapada-romantica-llamativo-que-parejas-eran-humano-ia" class&equals;"desvio-title js-desvio-title pivot-outboundlink" data-vars-post-title&equals;"Los humanos nos estamos enamorando de IAs y no son casos aislados&colon; ya se cuentan por miles">Los humanos nos estamos enamorando de IAs y no son casos aislados&colon; ya se cuentan por miles<&sol;a>&NewLine; <&sol;div>&NewLine;<&sol;p><&sol;div>&NewLine;<&sol;p><&sol;div>&NewLine;<&sol;div>&NewLine;<p><strong>El caso Kendra<&sol;strong>&period; Desde principios de agosto&comma; Kendra es uno de los temas de conversación más candentes en TikTok&period; Todo empezó cuando&comma; en una serie de varias decenas de vídeos&comma; contó cómo su psiquiatra la había manipulado para que se enamorara de él&period; Por las situaciones que narra&comma; para los expertos es evidente que <a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;www&period;youtube&period;com&sol;watch&quest;v&equals;fzW5ZhP3Xkw"><u>Kendra sufre algún tipo de trastorno de la personalidad<&sol;u><&sol;a>&period; Lo llamativo del caso es que constantemente acudía a ChatGPT&comma; a quien apodaba &OpenCurlyDoubleQuote;Henry”&comma; para validar sus delirios&period; Llegado un punto&comma; ChatGPT no le dijo lo que quería oír y empezó a usar Claude&comma; la IA de Anthropic&period; Kendra no considera que su uso de la IA sea peligroso&comma; al contrario&colon; en <a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;www&period;tiktok&period;com&sol;&commat;whatsdahliareading&sol;video&sol;7543337320322256141&quest;&lowbar;r&equals;1&amp&semi;&lowbar;t&equals;ZN-8zHDBgYXKdy"><u>este vídeo<&sol;u><&sol;a> asegura que es una profecía&period;<&sol;p>&NewLine;<p><&excl;-- BREAK 3 --><&sol;p>&NewLine;<p><strong>Preocupación&period; <&sol;strong>La IA está en el punto de mira por muchos motivos y el impacto que puede tener en nuestra salud mental es uno de ellos&period; Casos como los que hemos descrito son los más llamativos por lo alarmantes que son&comma; pero no son tan comunes&period; Hay otros casos de uso&comma; como la tendencia a <a class&equals;"text-outboundlink" href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&period;ar&sol;investigacion&sol;utilizar-chatgpt-como-psicologo-se-esta-volviendo-habito-para-argentinos-empezamos-a-descubrir-su-impacto-salud-mental" data-vars-post-title&equals;"Utilizar ChatGPT como psicólogo se está volviendo un hábito para los argentinos&comma; y ya empezamos a descubrir su impacto en la salud mental " data-vars-post-url&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&period;ar&sol;investigacion&sol;utilizar-chatgpt-como-psicologo-se-esta-volviendo-habito-para-argentinos-empezamos-a-descubrir-su-impacto-salud-mental"><u>recurrir a la IA como si fuera un psicólogo<&sol;u><&sol;a> o la <a class&equals;"text-outboundlink" href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;hay-gente-enganchada-a-ia-que-estan-creando-grupos-a-alcoholicos-anonimos-para-superar-su-adiccion" data-vars-post-title&equals;'"No puedo parar"&colon; la adicción a hablar con la IA ya está aquí y hasta existen grupos de ayuda para dejarla' data-vars-post-url&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;hay-gente-enganchada-a-ia-que-estan-creando-grupos-a-alcoholicos-anonimos-para-superar-su-adiccion"><u>dependencia emocional causada por las apps de &OpenCurlyDoubleQuote;compañeros IA”<&sol;u><&sol;a>&comma; que se están popularizando y han despertado una oleada de preocupación&period;<&sol;p>&NewLine;<p><&excl;-- BREAK 4 --><&sol;p>&NewLine;<p>También están surgiendo nuevos estudios que ahondan en esta problemática&comma; como <a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;ed&period;stanford&period;edu&sol;news&sol;exploring-dangers-ai-mental-health-care"><u>este de la Universidad de Stanford<&sol;u><&sol;a> que concluyó que los chatbots de terapia <a class&equals;"text-outboundlink" href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;otros&sol;ia-aduladora-problema-se-agrava-a-medida-que-crece-estos-investigadores-quieren-solucionarlo" data-vars-post-title&equals;"Cuanto más sofisticada es una inteligencia artificial&comma; más te da la razón&period; Es un problema para todos" data-vars-post-url&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;otros&sol;ia-aduladora-problema-se-agrava-a-medida-que-crece-estos-investigadores-quieren-solucionarlo"><u>tienden a ser complacientes<&sol;u><&sol;a> y en casos de riesgo pueden reforzar delirios en lugar de cuestionarlos &lpar;como en el caso de Kendra&rpar;&period;  <a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;www&period;polsinelli&period;com&sol;publications&sol;safeguarding-mental-health-ai-world"><u>La respuesta de autoridades y grupos de defensa<&sol;u><&sol;a> no se ha hecho esperar&period;<&sol;p>&NewLine;<p><&excl;-- BREAK 5 --><&sol;p>&NewLine;<p><strong>Voces de alarma<&sol;strong>&period; La Asociación Americana de Psicología &lpar;APA&rpar; se reunió con las autoridades estadounidenses para dar la alarma ante el creciente uso de chatbots de terapia psicológica&period; La organización expresó su <a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;www&period;cigionline&period;org&sol;articles&sol;need-for-regulation-is-urgent-as-ai-chatbots-are-being-rolled-out-to-support-mental-health&sol;"><u>preocupación ante las prácticas engañosas<&sol;u><&sol;a> como los <a class&equals;"text-outboundlink" href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;cada-vez-personas-recurren-a-ias-disenadas-para-ser-sus-psicologos-cada-vez-hay-demandas-ellas" data-vars-post-title&equals;"Contar qué te preocupa a la IA era solo el primer paso&colon; ya hay bots que se hacen pasar por psiquiatras colegiados" data-vars-post-url&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;cada-vez-personas-recurren-a-ias-disenadas-para-ser-sus-psicologos-cada-vez-hay-demandas-ellas"><u>chatbots que se hacen pasar por terapeutas reales<&sol;u><&sol;a>&period; Exigen campañas de educación para informar a los consumidores y que las aplicaciones integren medidas de seguridad obligatorias para usuarios que se encuentren en crisis&period;<&sol;p>&NewLine;<p><&excl;-- BREAK 6 --><&sol;p>&NewLine;<p>El &OpenCurlyQuote;Centro para la lucha contra el odio digital’ también ha exigido una regulación más estricta&period; En su <a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;www&period;aa&period;com&period;tr&sol;en&sol;world&sol;study-warns-chatgpt-can-bypass-safeguards-give-harmful-advice-to-children&sol;3659821"><u>informe &OpenCurlyQuote;Fake Friend’<&sol;u><&sol;a> expusieron lo frágiles que son las salvaguardas de los chatbots IA&comma; todo desde el punto de vista de un adolescente vulnerable &lpar;el caso de Adam Raine es un claro ejemplo de esto&rpar;&period; Piden que se haga cumplir la verificación de edad&comma; que se prohíban los diseños que manipulan emocionalmente y que se realicen auditorías independientes de las herramientas IA&period; No son las únicas&period; Hay más organizaciones que están alertando de esta problemática como <a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;www&period;mentalhealtheurope&period;org&sol;library&sol;mhe-releases-digitalisation-report&sol;"><u>Mental Health Europe<&sol;u><&sol;a>&comma; la <a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;www&period;who&period;int&sol;europe&sol;news-room&sol;06-02-2023-artificial-intelligence-in-mental-health-research--new-who-study-on-applications-and-challenges&quest;utm&lowbar;source&equals;chatgpt&period;com"><u>OMS<&sol;u><&sol;a> e incluso el <a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;www&period;infocop&period;es&sol;la-ia-puede-apoyar-pero-no-reemplazar-la-atencion-humana-en-los-servicios-de-salud-mental-segun-la-bps&sol;"><u>Consejo General de la Psicología de España<&sol;u><&sol;a>&period;<&sol;p>&NewLine;<p><&excl;-- BREAK 7 --><&sol;p>&NewLine;<div class&equals;"article-asset article-asset-normal article-asset-center">&NewLine;<div class&equals;"desvio-container">&NewLine;<div class&equals;"desvio">&NewLine;<div class&equals;"desvio-figure js-desvio-figure">&NewLine; <a href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;historia-tecnologica&sol;misteriosa-serie-numeros-letras-aparecio-reddit-nadie-imagino-que-miles-personas-estarian-anos-intentando-descifrarla" class&equals;"pivot-outboundlink" data-vars-post-title&equals;'En 2011 alguien publicó en Reddit "A858"&period; Catorce años y miles de mensajes después&comma; el misterio sigue irresuelto'><br &sol;>&NewLine; <img alt&equals;'En 2011 alguien publicó en Reddit "A858"&period; Catorce años y miles de mensajes después&comma; el misterio sigue irresuelto' width&equals;"375" height&equals;"142" src&equals;"https&colon;&sol;&sol;i&period;blogs&period;es&sol;23302d&sol;a858&sol;375&lowbar;142&period;jpeg"><br &sol;>&NewLine; <&sol;a>&NewLine; <&sol;div>&NewLine;<div class&equals;"desvio-summary">&NewLine;<div class&equals;"desvio-taxonomy js-desvio-taxonomy">&NewLine; <a href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;historia-tecnologica&sol;misteriosa-serie-numeros-letras-aparecio-reddit-nadie-imagino-que-miles-personas-estarian-anos-intentando-descifrarla" class&equals;"desvio-taxonomy-anchor pivot-outboundlink" data-vars-post-title&equals;'En 2011 alguien publicó en Reddit "A858"&period; Catorce años y miles de mensajes después&comma; el misterio sigue irresuelto'>En Xataka<&sol;a>&NewLine; <&sol;div>&NewLine;<p> <a href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;historia-tecnologica&sol;misteriosa-serie-numeros-letras-aparecio-reddit-nadie-imagino-que-miles-personas-estarian-anos-intentando-descifrarla" class&equals;"desvio-title js-desvio-title pivot-outboundlink" data-vars-post-title&equals;'En 2011 alguien publicó en Reddit "A858"&period; Catorce años y miles de mensajes después&comma; el misterio sigue irresuelto'>En 2011 alguien publicó en Reddit &&num;8220&semi;A858&&num;8221&semi;&period; Catorce años y miles de mensajes después&comma; el misterio sigue irresuelto<&sol;a>&NewLine; <&sol;div>&NewLine;<&sol;p><&sol;div>&NewLine;<&sol;p><&sol;div>&NewLine;<&sol;div>&NewLine;<p><strong>Medidas legales en EEUU<&sol;strong>&period; Aunque todavía no se puede  hablar de una regulación a nivel federal&comma; ya hay varios estados que han tomado medidas&period; Es el caso de Illinois&comma; donde se aprobó una <a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;www&period;hklaw&period;com&sol;en&sol;insights&sol;publications&sol;2025&sol;08&sol;new-illinois-law-restricts-use-of-ai-in-mental-health-therapy"><u>ley que prohíbe el uso de la IA en terapia psicológica<&sol;u><&sol;a>&period; En Utah han optado por un enfoque más orientado a la transparencia y <a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;le&period;utah&period;gov&sol;~2025&sol;bills&sol;static&sol;HB0452&period;html"><u>en su ley establecen que los usuarios deberán ser informados<&sol;u><&sol;a> claramente cuando estén hablando con una IA&period;<&sol;p>&NewLine;<p><&excl;-- BREAK 8 --><&sol;p>&NewLine;<p>En Nueva York tienen preparada <a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;www&period;nysenate&period;gov&sol;legislation&sol;bills&sol;2025&sol;A6767"><u>una ley que entrará en vigor en noviembre<&sol;u><&sol;a> y exigirá que los compañeros IA notifiquen a los usuarios repetidamente de que están interactuando con una entidad no humana&period; Además&comma; estos compañeros IA deberán contar con un sistema que detecte riesgo de autolesiones o suicidio y remita a los usuarios a líneas de ayuda&period; En California hay<a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;www&period;billtrack50&period;com&sol;billdetail&sol;1812548"><u> una propuesta de ley<&sol;u><&sol;a> que quiere prohibir &OpenCurlyDoubleQuote;estrategias de maximización de la interacción que manipulan emocionalmente a los usuarios”&period; Si se acaba aprobando&comma; sería la primera ley que regula los mecanismos de diseño que fomentan la dependencia de estas herramientas&period;<&sol;p>&NewLine;<p><&excl;-- BREAK 9 --><&sol;p>&NewLine;<div class&equals;"article-asset-video article-asset-normal">&NewLine;<div class&equals;"asset-content">&NewLine;<div class&equals;"base-asset-video">&NewLine;<div class&equals;"js-dailymotion"><&sol;div>&NewLine;<&sol;p><&sol;div>&NewLine;<&sol;p><&sol;div>&NewLine;<&sol;div>&NewLine;<p><strong>¿Y la Unión Europea&quest;<&sol;strong> En Europa tenemos la AI Act que <a class&equals;"text-outboundlink" href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;legislacion-y-derechos&sol;ley-ia-europea-entra-hoy-vigor-como-se-va-a-aplicar-primera-regulacion-inteligencia-artificial-mundo" data-vars-post-title&equals;"La Ley de IA europea entra en vigor&colon; así se va a aplicar la primera regulación de inteligencia artificial del mundo" data-vars-post-url&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;legislacion-y-derechos&sol;ley-ia-europea-entra-hoy-vigor-como-se-va-a-aplicar-primera-regulacion-inteligencia-artificial-mundo"><u>entró en vigor hace un año&period; <&sol;u><&sol;a>La ley define <a class&equals;"text-outboundlink" href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;legislacion-y-derechos&sol;riesgo-minimo-al-riesgo-inaceptable-asi-define-ue-cuatro-niveles-sistemas-ia-su-nueva-ley" data-vars-post-title&equals;"Del riesgo mínimo al riesgo inaceptable&colon; así define la UE los cuatro niveles de los sistemas de IA en su nueva Ley" data-vars-post-url&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;legislacion-y-derechos&sol;riesgo-minimo-al-riesgo-inaceptable-asi-define-ue-cuatro-niveles-sistemas-ia-su-nueva-ley"><u>cuatro niveles de riesgo<&sol;u><&sol;a> con regulaciones específicas para cada uno&comma; incluyendo uno &OpenCurlyDoubleQuote;riesgo inaceptable” que conllevaría la prohibición de la tecnología en cuestión&period; En materia relativa a salud mental no hay nada concreto&comma; pero <a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;artificialintelligenceact&period;eu&sol;article&sol;5&sol;"><u>en el artículo 5 <&sol;u><&sol;a>vemos que prohíbe cualquier sistema que use &OpenCurlyDoubleQuote;técnicas subliminales” para manipular a las personas de forma que &OpenCurlyDoubleQuote;cause o sea probable que cause un daño físico o psicológico”&period; También se prohíbe a la IA que &OpenCurlyDoubleQuote;infiera emociones en las personas”&comma; aunque incluye una excepción si es con fines terapéuticos&comma; lo que resulta un tanto ambiguo&period;<&sol;p>&NewLine;<p><&excl;-- BREAK 10 --><&sol;p>&NewLine;<p><strong>Las medidas de las empresas de IA&period;<&sol;strong> En el caso de las empresas&comma; aunque prácticamente todas cuentan con algún tipo de seguridad para casos como estos&comma; la realidad es que OpenAI es quien más ha detallado sus medidas&comma; en parte porque el éxito de ChatGPT hace que sean ellos quienes suelen estar en el punto de mira&period; Veamos qué dice cada una&colon;<&sol;p>&NewLine;<p><&excl;-- BREAK 11 --><&sol;p>&NewLine;<ul>&NewLine;<li><strong>ChatGPT<&sol;strong>&colon; Tras la noticia del suicidio de Adam Raine&comma; <a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;www&period;theverge&period;com&sol;news&sol;766678&sol;openai-chatgpt-parental-controls-teen-death"><u>OpenAI ha confirmado que añadirá controles parentales y salvaguardas adicionales<&sol;u><&sol;a>&comma; como que los usuarios puedan contactar con una persona de emergencia en un click e incluso que el chatbot contacte directamente con los servicios de emergencia en casos graves&period; Hasta ahora&comma; instaba a los usuarios a contactar con la línea de ayuda de EEUU&comma; pero ya hemos visto que para Adam fue muy fácil esquivar las advertencias&period;<&sol;li>&NewLine;<li><strong>Claude<&sol;strong>&colon; Anthropic apuesta por la &OpenCurlyDoubleQuote;seguridad por diseño”&comma; es decir&comma; <a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;www&period;anthropic&period;com&sol;news&sol;building-safeguards-for-claude"><u>aseguran que la seguridad está en el núcleo de su modelo<&sol;u><&sol;a> desde el principio&period; Además&comma; colaboraron con expertos de la organización de ayuda ThroughLine para que Claude fuera capaz de detectar conversaciones sensibles para refinar las respuestas&comma; aunque no especifican cómo son esas respuestas&period;<&sol;li>&NewLine;<li><strong>Gemini&colon; <&sol;strong>DeepMind también ha colaborado con organizaciones de salud como Welcome Trust&comma; aunque su enfoque está más  enfocado a la investigación&period; En su <a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;gemini&period;google&sol;policy-guidelines&sol;&quest;&lowbar;gl&equals;1&ast;9eyqzh&ast;&lowbar;gcl&lowbar;au&ast;Nzc5MDAwNTI0LjE3NTYzNjU0NDY&period;&ast;&lowbar;ga&ast;Mzc2NzcwMjI5LjE3NTYzNjU0NDY&period;&ast;&lowbar;ga&lowbar;WC57KJ50ZZ&ast;czE3NTY0NTk2ODMkbzQkZzEkdDE3NTY0NjI2OTQkajYwJGwwJGgw"><u>política de seguridad<&sol;u><&sol;a> afirman que Gemini no puede participar en ningún tipo de actividad peligrosa&comma; incluyendo suicidio o autolesiones&period; No dicen si su chatbot ofrece algún tipo de guía o ayuda cuando detecta ese tipo de mensajes&period;<&sol;li>&NewLine;<li><strong>Grok&colon; <&sol;strong>es el chatbot más imprudente&comma; aunque sus casos más sonados han tenido que ver con sus <a class&equals;"text-outboundlink" href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;quieres-que-elon-musk-eduque-a-tus-hijos-estas-enhorabuena-quiere-lanzar-baby-grok" data-vars-post-title&equals;"La última versión de Grok alucina y publica mensajes antisemitas&period; Elon Musk cree que es ideal para educar a niños" data-vars-post-url&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;quieres-que-elon-musk-eduque-a-tus-hijos-estas-enhorabuena-quiere-lanzar-baby-grok">mensajes antisemitas<&sol;a> y no tanto con problemas de salud mental&period; Hemos revisado su política y no hemos encontrado ninguna referencia a salvaguardas específicas para proteger la salud mental de los usuarios&period;<&sol;li>&NewLine;<&sol;ul>&NewLine;<p><strong>El papel de los medios&period; <&sol;strong>El hecho de que cada vez surjan más noticias alarmantes que colocan a <a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;www&period;nytimes&period;com&sol;2025&sol;06&sol;13&sol;technology&sol;chatgpt-ai-chatbots-conspiracies&period;html"><u>la IA como una especie de voz malvada que nos empuja a la locura<&sol;u><&sol;a> está magnificando el problema&period; Es necesario poner esto en contexto&colon; hablamos de una tecnología masiva&comma; &lpar;sólo ChatGPT tiene <a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;explodingtopics&period;com&sol;blog&sol;chatgpt-users"><u>800 millones de usuarios<&sol;u><&sol;a>&rpar; y habrá todo tipo de casuísticas&comma; pero al poner el foco en esos casos tan extremos o trágicos podemos caer fácilmente en echar la culpa de todo a la IA&period; La preocupación por los riesgos en la salud mental está ahí y es real&comma; pero hay que evitar caer en <a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;default&period;blog&sol;p&sol;lets-talk-about-chatgpt-induced-spiritual"><u>pánicos sociales<&sol;u><&sol;a> como el que vivimos <a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;www&period;elmundo&period;es&sol;papel&sol;historias&sol;2018&sol;03&sol;22&sol;5ab273c2468aeb35128b465e&period;html"><u>con los videojuegos<&sol;u><&sol;a>&period;<&sol;p>&NewLine;<p><&excl;-- BREAK 12 --><&sol;p>&NewLine;<p>Imagen de portada &vert; <a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;www&period;pexels&period;com&sol;photo&sol;person-leaning-on-wall-236151&sol;">Pixabay<&sol;a><&sol;p>&NewLine;<p>En Xataka &vert; <a class&equals;"text-outboundlink" href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;app-movil-chatgpt-genera-30-veces-dinero-que-claude-copilot-grok-juntas-sigue-ser-suficiente" data-vars-post-title&equals;"ChatGPT para móvil ha generado 2&period;000 millones de dólares&period; Puede parecer mucho&comma; pero en el universo de la IA es calderilla" data-vars-post-url&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;app-movil-chatgpt-genera-30-veces-dinero-que-claude-copilot-grok-juntas-sigue-ser-suficiente"><u>ChatGPT para móvil ha generado 2&period;000 millones de dólares&period; Puede parecer mucho&comma; pero en el universo de la IA es calderilla<&sol;u><&sol;a><&sol;p>&NewLine;<p> &&num;8211&semi; <br &sol;> La noticia<br &sol;>&NewLine; <a href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;delirios-directo-suicidios-alimentados-ia-que-esta-pasando-realmente-ia-salud-mental&quest;utm&lowbar;source&equals;feedburner&amp&semi;utm&lowbar;medium&equals;feed&amp&semi;utm&lowbar;campaign&equals;29&lowbar;Aug&lowbar;2025"><br &sol;>&NewLine; <em> Delirios en directo y suicidios alimentados por la IA&colon; qué está pasando realmente con la IA y la salud mental <&sol;em><br &sol;>&NewLine; <&sol;a><br &sol;>&NewLine; fue publicada originalmente en<br &sol;>&NewLine; <a href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;&quest;utm&lowbar;source&equals;feedburner&amp&semi;utm&lowbar;medium&equals;feed&amp&semi;utm&lowbar;campaign&equals;29&lowbar;Aug&lowbar;2025"><br &sol;>&NewLine; <strong> Xataka <&sol;strong><br &sol;>&NewLine; <&sol;a><br &sol;>&NewLine; por <a href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;autor&sol;amparo-babiloni&quest;utm&lowbar;source&equals;feedburner&amp&semi;utm&lowbar;medium&equals;feed&amp&semi;utm&lowbar;campaign&equals;29&lowbar;Aug&lowbar;2025"><br &sol;>&NewLine; Amparo Babiloni<br &sol;>&NewLine; <&sol;a><br &sol;>&NewLine; &period; <&sol;p>&NewLine;<p>&ZeroWidthSpace;Una mujer llamada Kendra se ha hecho viral en TikTok&period; ¿El motivo&quest; Probablemente sea el primer caso de brote psicótico alimentado por la IA que estamos viendo en vivo y en directo&period; Un adolescente discutió sus planes de suicidio con ChatGPT y sus padres han demandado a OpenAI&period; Son sólo dos casos recientes&comma; pero cada vez hay más noticias que culpan a la IA de provocar delirios o incluso muertes&period; Ya vimos que la realidad es mucho más compleja&comma; pero está claro que hay un debate sobre los efectos de la IA en nuestra salud mental&period; ¿Qué está pasando&quest;<&sol;p>&NewLine;<p>El caso Adam Raine&period; Lo cuentan en el New York Times&period;  Adam empezó a usar ChatGPT para que le ayudara con los deberes&comma; pero más tarde sus conversaciones tomaron un giro oscuro&period; Tras su muerte&comma; su padre revisó su móvil y descubrió que había estado preguntándole a la IA detalles sobre cómo suicidarse&period; A pesar de que ChatGPT identificó los mensajes como peligrosos y le insistió varias veces en buscar ayuda&comma; Adam logró saltarse estas advertencias diciéndole que no iba a hacerlo de verdad&comma; sino que estaba recabando información para una historia que quería escribir&period; Sus padres han demandado a OpenAI argumentando que la IA validó los  &OpenCurlyDoubleQuote;pensamientos más dañinos y autodesctructivos” de su hijo&period;<&sol;p>&NewLine;<p> En Xataka<&sol;p>&NewLine;<p> Los humanos nos estamos enamorando de IAs y no son casos aislados&colon; ya se cuentan por miles<&sol;p>&NewLine;<p>El caso Kendra&period; Desde principios de agosto&comma; Kendra es uno de los temas de conversación más candentes en TikTok&period; Todo empezó cuando&comma; en una serie de varias decenas de vídeos&comma; contó cómo su psiquiatra la había manipulado para que se enamorara de él&period; Por las situaciones que narra&comma; para los expertos es evidente que Kendra sufre algún tipo de trastorno de la personalidad&period; Lo llamativo del caso es que constantemente acudía a ChatGPT&comma; a quien apodaba &OpenCurlyDoubleQuote;Henry”&comma; para validar sus delirios&period; Llegado un punto&comma; ChatGPT no le dijo lo que quería oír y empezó a usar Claude&comma; la IA de Anthropic&period; Kendra no considera que su uso de la IA sea peligroso&comma; al contrario&colon; en este vídeo asegura que es una profecía&period;<&sol;p>&NewLine;<p>Preocupación&period; La IA está en el punto de mira por muchos motivos y el impacto que puede tener en nuestra salud mental es uno de ellos&period; Casos como los que hemos descrito son los más llamativos por lo alarmantes que son&comma; pero no son tan comunes&period; Hay otros casos de uso&comma; como la tendencia a recurrir a la IA como si fuera un psicólogo o la dependencia emocional causada por las apps de &OpenCurlyDoubleQuote;compañeros IA”&comma; que se están popularizando y han despertado una oleada de preocupación&period;<&sol;p>&NewLine;<p>También están surgiendo nuevos estudios que ahondan en esta problemática&comma; como este de la Universidad de Stanford que concluyó que los chatbots de terapia tienden a ser complacientes y en casos de riesgo pueden reforzar delirios en lugar de cuestionarlos &lpar;como en el caso de Kendra&rpar;&period;  La respuesta de autoridades y grupos de defensa no se ha hecho esperar&period;<&sol;p>&NewLine;<p>Voces de alarma&period; La Asociación Americana de Psicología &lpar;APA&rpar; se reunió con las autoridades estadounidenses para dar la alarma ante el creciente uso de chatbots de terapia psicológica&period; La organización expresó su preocupación ante las prácticas engañosas como los chatbots que se hacen pasar por terapeutas reales&period; Exigen campañas de educación para informar a los consumidores y que las aplicaciones integren medidas de seguridad obligatorias para usuarios que se encuentren en crisis&period;<&sol;p>&NewLine;<p>El &OpenCurlyQuote;Centro para la lucha contra el odio digital’ también ha exigido una regulación más estricta&period; En su informe &OpenCurlyQuote;Fake Friend’ expusieron lo frágiles que son las salvaguardas de los chatbots IA&comma; todo desde el punto de vista de un adolescente vulnerable &lpar;el caso de Adam Raine es un claro ejemplo de esto&rpar;&period; Piden que se haga cumplir la verificación de edad&comma; que se prohíban los diseños que manipulan emocionalmente y que se realicen auditorías independientes de las herramientas IA&period; No son las únicas&period; Hay más organizaciones que están alertando de esta problemática como Mental Health Europe&comma; la OMS e incluso el Consejo General de la Psicología de España&period;<&sol;p>&NewLine;<p> En Xataka<&sol;p>&NewLine;<p> En 2011 alguien publicó en Reddit &&num;8220&semi;A858&&num;8221&semi;&period; Catorce años y miles de mensajes después&comma; el misterio sigue irresuelto<&sol;p>&NewLine;<p>Medidas legales en EEUU&period; Aunque todavía no se puede  hablar de una regulación a nivel federal&comma; ya hay varios estados que han tomado medidas&period; Es el caso de Illinois&comma; donde se aprobó una ley que prohíbe el uso de la IA en terapia psicológica&period; En Utah han optado por un enfoque más orientado a la transparencia y en su ley establecen que los usuarios deberán ser informados claramente cuando estén hablando con una IA&period;<&sol;p>&NewLine;<p>En Nueva York tienen preparada una ley que entrará en vigor en noviembre y exigirá que los compañeros IA notifiquen a los usuarios repetidamente de que están interactuando con una entidad no humana&period; Además&comma; estos compañeros IA deberán contar con un sistema que detecte riesgo de autolesiones o suicidio y remita a los usuarios a líneas de ayuda&period; En California hay una propuesta de ley que quiere prohibir &OpenCurlyDoubleQuote;estrategias de maximización de la interacción que manipulan emocionalmente a los usuarios”&period; Si se acaba aprobando&comma; sería la primera ley que regula los mecanismos de diseño que fomentan la dependencia de estas herramientas&period;<&sol;p>&NewLine;<p>¿Y la Unión Europea&quest; En Europa tenemos la AI Act que entró en vigor hace un año&period; La ley define cuatro niveles de riesgo con regulaciones específicas para cada uno&comma; incluyendo uno &OpenCurlyDoubleQuote;riesgo inaceptable” que conllevaría la prohibición de la tecnología en cuestión&period; En materia relativa a salud mental no hay nada concreto&comma; pero en el artículo 5 vemos que prohíbe cualquier sistema que use &OpenCurlyDoubleQuote;técnicas subliminales” para manipular a las personas de forma que &OpenCurlyDoubleQuote;cause o sea probable que cause un daño físico o psicológico”&period; También se prohíbe a la IA que &OpenCurlyDoubleQuote;infiera emociones en las personas”&comma; aunque incluye una excepción si es con fines terapéuticos&comma; lo que resulta un tanto ambiguo&period;<&sol;p>&NewLine;<p>Las medidas de las empresas de IA&period; En el caso de las empresas&comma; aunque prácticamente todas cuentan con algún tipo de seguridad para casos como estos&comma; la realidad es que OpenAI es quien más ha detallado sus medidas&comma; en parte porque el éxito de ChatGPT hace que sean ellos quienes suelen estar en el punto de mira&period; Veamos qué dice cada una&colon;<&sol;p>&NewLine;<p> ChatGPT&colon; Tras la noticia del suicidio de Adam Raine&comma; OpenAI ha confirmado que añadirá controles parentales y salvaguardas adicionales&comma; como que los usuarios puedan contactar con una persona de emergencia en un click e incluso que el chatbot contacte directamente con los servicios de emergencia en casos graves&period; Hasta ahora&comma; instaba a los usuarios a contactar con la línea de ayuda de EEUU&comma; pero ya hemos visto que para Adam fue muy fácil esquivar las advertencias&period;<br &sol;>&NewLine; Claude&colon; Anthropic apuesta por la &OpenCurlyDoubleQuote;seguridad por diseño”&comma; es decir&comma; aseguran que la seguridad está en el núcleo de su modelo desde el principio&period; Además&comma; colaboraron con expertos de la organización de ayuda ThroughLine para que Claude fuera capaz de detectar conversaciones sensibles para refinar las respuestas&comma; aunque no especifican cómo son esas respuestas&period;<br &sol;>&NewLine; Gemini&colon; DeepMind también ha colaborado con organizaciones de salud como Welcome Trust&comma; aunque su enfoque está más  enfocado a la investigación&period; En su política de seguridad afirman que Gemini no puede participar en ningún tipo de actividad peligrosa&comma; incluyendo suicidio o autolesiones&period; No dicen si su chatbot ofrece algún tipo de guía o ayuda cuando detecta ese tipo de mensajes&period;<br &sol;>&NewLine; Grok&colon; es el chatbot más imprudente&comma; aunque sus casos más sonados han tenido que ver con sus mensajes antisemitas y no tanto con problemas de salud mental&period; Hemos revisado su política y no hemos encontrado ninguna referencia a salvaguardas específicas para proteger la salud mental de los usuarios&period;<&sol;p>&NewLine;<p>El papel de los medios&period; El hecho de que cada vez surjan más noticias alarmantes que colocan a la IA como una especie de voz malvada que nos empuja a la locura está magnificando el problema&period; Es necesario poner esto en contexto&colon; hablamos de una tecnología masiva&comma; &lpar;sólo ChatGPT tiene 800 millones de usuarios&rpar; y habrá todo tipo de casuísticas&comma; pero al poner el foco en esos casos tan extremos o trágicos podemos caer fácilmente en echar la culpa de todo a la IA&period; La preocupación por los riesgos en la salud mental está ahí y es real&comma; pero hay que evitar caer en pánicos sociales como el que vivimos con los videojuegos&period;<&sol;p>&NewLine;<p>Imagen de portada &vert; Pixabay<&sol;p>&NewLine;<p>En Xataka &vert; ChatGPT para móvil ha generado 2&period;000 millones de dólares&period; Puede parecer mucho&comma; pero en el universo de la IA es calderilla<&sol;p>&NewLine;<p> &&num;8211&semi; La noticia<&sol;p>&NewLine;<p> Delirios en directo y suicidios alimentados por la IA&colon; qué está pasando realmente con la IA y la salud mental <&sol;p>&NewLine;<p> fue publicada originalmente en<&sol;p>&NewLine;<p> Xataka <&sol;p>&NewLine;<p> por<br &sol;>&NewLine; Amparo Babiloni<&sol;p>&NewLine;<p> &period;   <&sol;p>&NewLine;<p>&ZeroWidthSpace;   <&sol;p>&NewLine;<p>&ZeroWidthSpace; <&sol;p>&NewLine;

Leave a Reply

Your email address will not be published. Required fields are marked *

Noticias Importantes

Copyright © 2017 ERM DIGITAL. powered by ERM.