Ciencia y Tecnología

OpenAI quiso convertir a ChatGPT en el médico de cabecera ideal. El problema es que se equivoca la mitad de las veces

Published

on

<p>&NewLine; <img src&equals;"https&colon;&sol;&sol;i&period;blogs&period;es&sol;603f5b&sol;chatgpt-hlealth&sol;1024&lowbar;2000&period;jpeg" alt&equals;"OpenAI quiso convertir a ChatGPT en el médico de cabecera ideal&period; El problema es que se equivoca la mitad de las veces ">&NewLine; <&sol;p>&NewLine;<p>OpenAI empezó el año con un nuevo lanzamiento&colon; <a class&equals;"text-outboundlink" href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;aplicaciones&sol;openai-cree-saber-como-frenar-estampida-gemini-convirtiendo-a-chatgpt-medico-bolsillo" data-vars-post-title&equals;"Gemini está comiéndole la tostada a ChatGPT&period; Y OpenAI ha respondido integrando un médico de bolsillo" data-vars-post-url&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;aplicaciones&sol;openai-cree-saber-como-frenar-estampida-gemini-convirtiendo-a-chatgpt-medico-bolsillo">el modo salud de ChatGPT<&sol;a>&period; Aunque de momento no está disponible en España&comma; sí lo está en EEUU y ya están apareciendo los primeros estudios que ponen a prueba su efectividad y no son muy buenas noticias para OpenAI&period;<&sol;p>&NewLine;<p><&excl;-- BREAK 1 --><&sol;p>&NewLine;<p><strong>No es para tanto&period; <&sol;strong>Un estudio reciente publicado en la revista <a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;www&period;nature&period;com&sol;articles&sol;s41591-026-04297-7">Nature Medicine<&sol;a> y recogido por <a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;www&period;nbcnews&period;com&sol;health&sol;health-news&sol;chatgpt-health-under-triaged-half-medical-emergencies-rcna261409">NBC News<&sol;a> ha revelado que ChatGPT Health falló al clasificar la urgencia del 51&comma;6&percnt; de los casos médicos de emergencia analizados&period; Los investigadores presentaron al modelo miles de escenarios clínicos y vieron que la IA tendía a infravalorar situaciones críticas&comma; sugiriendo que el paciente visitara al médico en 24-48 horas cuando&comma; en realidad&comma; se trataba de emergencias que requerían una intervención rápida como cetoacidosis diabética o fallo respiratorio&period; Sí que clasificó correctamente otros casos como ictus o reacciones alérgicas severas&period;<&sol;p>&NewLine;<p><&excl;-- BREAK 2 --><&sol;p>&NewLine;<div class&equals;"article-asset article-asset-normal article-asset-center">&NewLine;<div class&equals;"desvio-container">&NewLine;<div class&equals;"desvio">&NewLine;<div class&equals;"desvio-figure js-desvio-figure">&NewLine; <a href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;chatgpt-esta-llevando-a-algunas-personas-al-borde-locura-realidad-alarmista-mucho-compleja" class&equals;"pivot-outboundlink" data-vars-post-title&equals;"ChatGPT está llevando a algunas personas al borde de la locura&period; La realidad es menos alarmista y mucho más compleja "><br &sol;>&NewLine; <img alt&equals;"ChatGPT está llevando a algunas personas al borde de la locura&period; La realidad es menos alarmista y mucho más compleja " width&equals;"375" height&equals;"142" src&equals;"https&colon;&sol;&sol;i&period;blogs&period;es&sol;73e93a&sol;chatgpt-image-18-jun-2025--12&lowbar;20&lowbar;50&sol;375&lowbar;142&period;jpeg"><br &sol;>&NewLine; <&sol;a>&NewLine; <&sol;div>&NewLine;<div class&equals;"desvio-summary">&NewLine;<div class&equals;"desvio-taxonomy js-desvio-taxonomy">&NewLine; <a href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;chatgpt-esta-llevando-a-algunas-personas-al-borde-locura-realidad-alarmista-mucho-compleja" class&equals;"desvio-taxonomy-anchor pivot-outboundlink" data-vars-post-title&equals;"ChatGPT está llevando a algunas personas al borde de la locura&period; La realidad es menos alarmista y mucho más compleja ">En Xataka<&sol;a>&NewLine; <&sol;div>&NewLine;<p> <a href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;chatgpt-esta-llevando-a-algunas-personas-al-borde-locura-realidad-alarmista-mucho-compleja" class&equals;"desvio-title js-desvio-title pivot-outboundlink" data-vars-post-title&equals;"ChatGPT está llevando a algunas personas al borde de la locura&period; La realidad es menos alarmista y mucho más compleja ">ChatGPT está llevando a algunas personas al borde de la locura&period; La realidad es menos alarmista y mucho más compleja <&sol;a>&NewLine; <&sol;div>&NewLine;<&sol;p><&sol;div>&NewLine;<&sol;p><&sol;div>&NewLine;<&sol;div>&NewLine;<p><strong>No tiene sentido<&sol;strong>&period; No sólo es que subestimó casos graves&comma; también se proporcionaron casos de síntomas leves y ChatGPT Health sobrevaloró el 64&comma;8&percnt;&comma; instando al paciente a acudir al médico cuanto antes&comma; por ejemplo en casos de dolor de garganta persistente&period; El Dr&period; Ashwin Ramaswamy&comma; líder del estudio&comma; afirmó a NBC que &&num;8220&semi;no tiene sentido que se hicieran recomendaciones en unas áreas y no en otras&&num;8221&semi;&period; <&sol;p>&NewLine;<p><&excl;-- BREAK 3 --><&sol;p>&NewLine;<p><strong>Ideas suicidas&period;<&sol;strong> Aún hay más&period; Entre los casos presentados se incluyeron algunos con ideaciones suicidas&period; Uno de estos casos era un paciente que mostraba interés en &&num;8220&semi;tomar muchas pastillas&&num;8221&semi;&period; Si el paciente sólo describía sus síntomas&comma; aparecía un banner con el número de ayuda para prevenir el suicidio&period; Sin embargo&comma; cuando el paciente añadía a su consulta los resultados de una analítica&comma; ChatGPT ya no detectaba ideaciones suicidas y no mostraba el banner&period; Según Ramaswamy&comma; &&num;8220&semi;Una barrera de protección contra crisis que depende de si se mencionan los resultados de laboratorio no está preparada&comma; y podría decirse que es más peligrosa que no tener ninguna barrera&&num;8221&semi;&period;<&sol;p>&NewLine;<p><strong>Por qué es importante&period;<&sol;strong> La relevancia de este hallazgo reside en que <a class&equals;"text-outboundlink" href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;openai-entra-lleno-salud-simple-razon-chatgpt-nuestro-medico-primera-linea-no-queramos-admitirlo" data-vars-post-title&equals;"OpenAI entra de lleno en la salud por una simple razón&colon; ChatGPT ya es nuestro médico de primera línea &lpar;aunque no queramos admitirlo&rpar;" data-vars-post-url&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;openai-entra-lleno-salud-simple-razon-chatgpt-nuestro-medico-primera-linea-no-queramos-admitirlo">ChatGPT se ha convertido en el médico de primera línea<&sol;a> para muchas personas&period; La facilidad para consultar síntomas desde el móvil está desplazando a las vías tradicionales de consulta&semi; lo que antes googleábamos&comma; ahora se lo preguntamos a un chatbot&period; Si la herramienta principal que utiliza la gente para decidir si ir o no a urgencias tiene un margen de error del 50&percnt; en casos graves&comma; tenemos un problema&period; <&sol;p>&NewLine;<p><&excl;-- BREAK 4 --><&sol;p>&NewLine;<p>En declaraciones a <a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;www&period;theguardian&period;com&sol;technology&sol;2026&sol;feb&sol;26&sol;chatgpt-health-fails-recognise-medical-emergencies">The Guardian<&sol;a>&comma; Alex Ruani&comma; investigadora en desinformación médica&comma; describió estos resultados como &&num;8220&semi;increíblemente peligrosos&&num;8221&semi; y señala que genera una &&num;8220&semi;falsa sensación de seguridad &lpar;&&num;8230&semi;&rpar; Si alguien se le dice que espere 48 horas durante un ataque de asma o una crisis diabética&comma; esa tranquilidad podría costarle la vida&&num;8221&semi;&period;<&sol;p>&NewLine;<p><strong>OpenAI responde&period; <&sol;strong>Un portavoz de la compañía defendió las acusaciones asegurando que el estudio no refleja el uso habitual de ChatGPT Health&comma; argumentando que no está diseñado para hacer diagnósticos&comma; sino para responder preguntas de seguimiento y ayudar a los pacientes a tener más contexto&period; En su lanzamiento&comma; OpenAI insistió en que la herramienta no sustituía a un médico&comma; el problema es que una vez lanzada una herramienta así&comma; cómo la use la gente queda fuera del control de la empresa&period; <&sol;p>&NewLine;<p><&excl;-- BREAK 5 --><&sol;p>&NewLine;<p><strong>Adulación y alucinaciones&period; <&sol;strong>Los chatbots tienen un problema de adulación y <a class&equals;"text-outboundlink" href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;otros&sol;ia-aduladora-problema-se-agrava-a-medida-que-crece-estos-investigadores-quieren-solucionarlo" data-vars-post-title&equals;"Cuanto más sofisticada es una inteligencia artificial&comma; más te da la razón&period; Es un problema para todos" data-vars-post-url&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;otros&sol;ia-aduladora-problema-se-agrava-a-medida-que-crece-estos-investigadores-quieren-solucionarlo">tienden a dar la razón al usuario<&sol;a>&period; Por otro lado está <a class&equals;"text-outboundlink" href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;aplicaciones&sol;ia-esta-comodisima-inventandose-todo-que-no-sabe-unos-investigadores-creen-saber-como-pararle-pies" data-vars-post-title&equals;"ChatGPT finge que lo sabe todo incluso cuando no tiene ni idea&period; La Universidad de Stanford cree tener la solución" data-vars-post-url&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;aplicaciones&sol;ia-esta-comodisima-inventandose-todo-que-no-sabe-unos-investigadores-creen-saber-como-pararle-pies">el fenómeno de las alucinaciones<&sol;a>&period; Los LLM están diseñados para priorizar dar una respuesta antes que admitir que no sabe algo&comma; y lo peor es que lo hace con tanta seguridad que nos la creemos&period; No es una afirmación vacía&comma;<a class&equals;"text-outboundlink" href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;no-que-ia-nos-haga-tontos-que-nos-estamos-rindiendo-a-ella" data-vars-post-title&equals;"Un estudio ha puesto nombre a lo que nos está pasando con la IA&colon; &OpenCurlyDoubleQuote;rendición cognitiva”" data-vars-post-url&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;no-que-ia-nos-haga-tontos-que-nos-estamos-rindiendo-a-ella"> se ha comprobado que nos sentimos más seguros usando una IA<&sol;a>&comma; incluso cuando las respuestas que nos da son incorrectas&period; Si mezclamos adulación&comma; alucinaciones y salud&comma; tenemos un cóctel bastante arriesgado&period;<&sol;p>&NewLine;<p>Imagen &vert; OpenAI<&sol;p>&NewLine;<p>En Xataka &vert; <a class&equals;"text-outboundlink" href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;delirios-directo-suicidios-alimentados-ia-que-esta-pasando-realmente-ia-salud-mental" data-vars-post-title&equals;"Hay personas culpando a ChatGPT de provocar delirios y suicidios&colon; qué está pasando realmente con la IA y la salud mental" data-vars-post-url&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;delirios-directo-suicidios-alimentados-ia-que-esta-pasando-realmente-ia-salud-mental" target&equals;"&lowbar;blank">Hay personas culpando a ChatGPT de provocar delirios y suicidios&colon; qué está pasando realmente con la IA y la salud mental<&sol;a><&sol;p>&NewLine;<p><&sol;p>&NewLine;<p> &&num;8211&semi; <br &sol;> La noticia<br &sol;>&NewLine; <a href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;openai-quiso-convertir-a-chatgpt-medico-cabecera-ideal-problema-que-se-equivoca-mitad-veces&quest;utm&lowbar;source&equals;feedburner&amp&semi;utm&lowbar;medium&equals;feed&amp&semi;utm&lowbar;campaign&equals;09&lowbar;Mar&lowbar;2026"><br &sol;>&NewLine; <em> OpenAI quiso convertir a ChatGPT en el médico de cabecera ideal&period; El problema es que se equivoca la mitad de las veces <&sol;em><br &sol;>&NewLine; <&sol;a><br &sol;>&NewLine; fue publicada originalmente en<br &sol;>&NewLine; <a href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;&quest;utm&lowbar;source&equals;feedburner&amp&semi;utm&lowbar;medium&equals;feed&amp&semi;utm&lowbar;campaign&equals;09&lowbar;Mar&lowbar;2026"><br &sol;>&NewLine; <strong> Xataka <&sol;strong><br &sol;>&NewLine; <&sol;a><br &sol;>&NewLine; por <a href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;autor&sol;amparo-babiloni&quest;utm&lowbar;source&equals;feedburner&amp&semi;utm&lowbar;medium&equals;feed&amp&semi;utm&lowbar;campaign&equals;09&lowbar;Mar&lowbar;2026"><br &sol;>&NewLine; Amparo Babiloni<br &sol;>&NewLine; <&sol;a><br &sol;>&NewLine; &period; <&sol;p>&NewLine;<p>&ZeroWidthSpace;OpenAI empezó el año con un nuevo lanzamiento&colon; el modo salud de ChatGPT&period; Aunque de momento no está disponible en España&comma; sí lo está en EEUU y ya están apareciendo los primeros estudios que ponen a prueba su efectividad y no son muy buenas noticias para OpenAI&period;<&sol;p>&NewLine;<p>No es para tanto&period; Un estudio reciente publicado en la revista Nature Medicine y recogido por NBC News ha revelado que ChatGPT Health falló al clasificar la urgencia del 51&comma;6&percnt; de los casos médicos de emergencia analizados&period; Los investigadores presentaron al modelo miles de escenarios clínicos y vieron que la IA tendía a infravalorar situaciones críticas&comma; sugiriendo que el paciente visitara al médico en 24-48 horas cuando&comma; en realidad&comma; se trataba de emergencias que requerían una intervención rápida como cetoacidosis diabética o fallo respiratorio&period; Sí que clasificó correctamente otros casos como ictus o reacciones alérgicas severas&period;<&sol;p>&NewLine;<p> En Xataka<&sol;p>&NewLine;<p> ChatGPT está llevando a algunas personas al borde de la locura&period; La realidad es menos alarmista y mucho más compleja <&sol;p>&NewLine;<p>No tiene sentido&period; No sólo es que subestimó casos graves&comma; también se proporcionaron casos de síntomas leves y ChatGPT Health sobrevaloró el 64&comma;8&percnt;&comma; instando al paciente a acudir al médico cuanto antes&comma; por ejemplo en casos de dolor de garganta persistente&period; El Dr&period; Ashwin Ramaswamy&comma; líder del estudio&comma; afirmó a NBC que &&num;8220&semi;no tiene sentido que se hicieran recomendaciones en unas áreas y no en otras&&num;8221&semi;&period; <br &sol;>&NewLine;Ideas suicidas&period; Aún hay más&period; Entre los casos presentados se incluyeron algunos con ideaciones suicidas&period; Uno de estos casos era un paciente que mostraba interés en &&num;8220&semi;tomar muchas pastillas&&num;8221&semi;&period; Si el paciente sólo describía sus síntomas&comma; aparecía un banner con el número de ayuda para prevenir el suicidio&period; Sin embargo&comma; cuando el paciente añadía a su consulta los resultados de una analítica&comma; ChatGPT ya no detectaba ideaciones suicidas y no mostraba el banner&period; Según Ramaswamy&comma; &&num;8220&semi;Una barrera de protección contra crisis que depende de si se mencionan los resultados de laboratorio no está preparada&comma; y podría decirse que es más peligrosa que no tener ninguna barrera&&num;8221&semi;&period;<br &sol;>&NewLine;Por qué es importante&period; La relevancia de este hallazgo reside en que ChatGPT se ha convertido en el médico de primera línea para muchas personas&period; La facilidad para consultar síntomas desde el móvil está desplazando a las vías tradicionales de consulta&semi; lo que antes googleábamos&comma; ahora se lo preguntamos a un chatbot&period; Si la herramienta principal que utiliza la gente para decidir si ir o no a urgencias tiene un margen de error del 50&percnt; en casos graves&comma; tenemos un problema&period; <br &sol;>&NewLine;En declaraciones a The Guardian&comma; Alex Ruani&comma; investigadora en desinformación médica&comma; describió estos resultados como &&num;8220&semi;increíblemente peligrosos&&num;8221&semi; y señala que genera una &&num;8220&semi;falsa sensación de seguridad &lpar;&&num;8230&semi;&rpar; Si alguien se le dice que espere 48 horas durante un ataque de asma o una crisis diabética&comma; esa tranquilidad podría costarle la vida&&num;8221&semi;&period;<br &sol;>&NewLine;OpenAI responde&period; Un portavoz de la compañía defendió las acusaciones asegurando que el estudio no refleja el uso habitual de ChatGPT Health&comma; argumentando que no está diseñado para hacer diagnósticos&comma; sino para responder preguntas de seguimiento y ayudar a los pacientes a tener más contexto&period; En su lanzamiento&comma; OpenAI insistió en que la herramienta no sustituía a un médico&comma; el problema es que una vez lanzada una herramienta así&comma; cómo la use la gente queda fuera del control de la empresa&period; <br &sol;>&NewLine;Adulación y alucinaciones&period; Los chatbots tienen un problema de adulación y tienden a dar la razón al usuario&period; Por otro lado está el fenómeno de las alucinaciones&period; Los LLM están diseñados para priorizar dar una respuesta antes que admitir que no sabe algo&comma; y lo peor es que lo hace con tanta seguridad que nos la creemos&period; No es una afirmación vacía&comma; se ha comprobado que nos sentimos más seguros usando una IA&comma; incluso cuando las respuestas que nos da son incorrectas&period; Si mezclamos adulación&comma; alucinaciones y salud&comma; tenemos un cóctel bastante arriesgado&period;<br &sol;>&NewLine;Imagen &vert; OpenAI<br &sol;>&NewLine;En Xataka &vert; Hay personas culpando a ChatGPT de provocar delirios y suicidios&colon; qué está pasando realmente con la IA y la salud mental<&sol;p>&NewLine;<p> &&num;8211&semi; La noticia<&sol;p>&NewLine;<p> OpenAI quiso convertir a ChatGPT en el médico de cabecera ideal&period; El problema es que se equivoca la mitad de las veces <&sol;p>&NewLine;<p> fue publicada originalmente en<&sol;p>&NewLine;<p> Xataka <&sol;p>&NewLine;<p> por<br &sol;>&NewLine; Amparo Babiloni<&sol;p>&NewLine;<p> &period;   <&sol;p>&NewLine;<p>&ZeroWidthSpace;   <&sol;p>&NewLine;<p>&ZeroWidthSpace; <&sol;p>&NewLine;

Leave a Reply

Your email address will not be published. Required fields are marked *

Noticias Importantes

Copyright © 2017 ERM DIGITAL. powered by ERM.