Ciencia y Tecnología
OpenAI cree haber descubierto porqué las IAs alucinan: no saben decir “no lo sé”
<p>
 <img src="https://i.blogs.es/be81b9/chat1/1024_2000.jpeg" alt="OpenAI cree haber descubierto porqué las IAs alucinan: no saben decir “no lo sé” ">
 </p>
</p>
<p>La IA alucina. <a class="text-outboundlink" href="https://www.xataka.com/robotica-e-ia/pregunta-no-ia-se-ha-estancado-pregunta-que-pasa-ha-hecho" data-vars-post-title="Los escépticos de la IA avisaron de que nos estábamos emocionando mucho y no les creímos: la IA es tontísima" data-vars-post-url="https://www.xataka.com/robotica-e-ia/pregunta-no-ia-se-ha-estancado-pregunta-que-pasa-ha-hecho">Da respuestas que no son ciertas</a>. Inventa, y además lo hace con una soltura sencillamente asombrosa. Las respuestas parecen coherentes gracias a esa aparente coherencia y seguridad, pero lo cierto es que eso puede acabar provocando problemas inquietantes. Por ejemplo, que te recomiende <a class="text-outboundlink" href="https://www.xataka.com/robotica-e-ia/ia-google-aconseja-usar-pegamento-queso-pizza-fuente-comentario-reddit-hace-11-anos" data-vars-post-title="La IA de Google aconseja usar pegamento para el queso de la pizza. La fuente es un comentario de Reddit de hace 11 años " data-vars-post-url="https://www.xataka.com/robotica-e-ia/ia-google-aconseja-usar-pegamento-queso-pizza-fuente-comentario-reddit-hace-11-anos">poner pegamento en la pizza</a> para que el queso quede bien pegado.</p>
<p><strong>Las alucinaciones no son un error místico</strong>. En OpenAI conocen bien el problema, y acaban de <a rel="noopener, noreferrer" href="https://cdn.openai.com/pdf/d04913be-3f6f-4d2b-b283-ff432ef4aaa5/why-language-models-hallucinate.pdf">publicar un informe</a> en el cual analizan las causas de las alucinaciones. Según el estudio, estas surgen por &#8220;presiones estadísticas&#8221; en las etapas de entrenamiento y evaluación. </p>
<p><!-- BREAK 1 --></p>
<div class="article-asset article-asset-normal article-asset-center">
<div class="desvio-container">
<div class="desvio">
<div class="desvio-figure js-desvio-figure">
 <a href="https://www.xataka.com/robotica-e-ia/tenemos-problema-opacidad-ia-gpt-5-tiene-muchas-versiones-openai-decide-cual-usar-ti" class="pivot-outboundlink" data-vars-post-title="Buenas noticias, ya no tienes que elegir modelo utilizando GPT-5. Malas noticias, es GPT-5 quien lo elige sin avisarte"><br />
 <img alt="Buenas noticias, ya no tienes que elegir modelo utilizando GPT-5. Malas noticias, es GPT-5 quien lo elige sin avisarte" width="375" height="142" src="https://i.blogs.es/76ce94/chat2/375_142.jpeg"><br />
 </a>
 </div>
<div class="desvio-summary">
<div class="desvio-taxonomy js-desvio-taxonomy">
 <a href="https://www.xataka.com/robotica-e-ia/tenemos-problema-opacidad-ia-gpt-5-tiene-muchas-versiones-openai-decide-cual-usar-ti" class="desvio-taxonomy-anchor pivot-outboundlink" data-vars-post-title="Buenas noticias, ya no tienes que elegir modelo utilizando GPT-5. Malas noticias, es GPT-5 quien lo elige sin avisarte">En Xataka</a>
 </div>
<p> <a href="https://www.xataka.com/robotica-e-ia/tenemos-problema-opacidad-ia-gpt-5-tiene-muchas-versiones-openai-decide-cual-usar-ti" class="desvio-title js-desvio-title pivot-outboundlink" data-vars-post-title="Buenas noticias, ya no tienes que elegir modelo utilizando GPT-5. Malas noticias, es GPT-5 quien lo elige sin avisarte">Buenas noticias, ya no tienes que elegir modelo utilizando GPT-5. Malas noticias, es GPT-5 quien lo elige sin avisarte</a>
 </div>
</p></div>
</p></div>
</div>
<p><strong>Premio por adivinar</strong>. El problema, explican, es que en esos procedimientos se está premiando que la IA &#8220;adivine&#8221; en lugar de admitir que puede haber incertidumbre en las respuestas, &#8220;como cuando un estudiante se enfrenta a una pregunta difícil en un examen&#8221; y responde a alguna de las opciones disponibles <a class="text-outboundlink" href="https://www.xataka.com/robotica-e-ia/le-pides-a-ia-que-elija-numero-1-50-suele-elegir-27-razon-muy-humana" data-vars-post-title="Si le pides a las IAs que elijan un número entre 1 y 50, suelen elegir el 27. La razón es muy humana" data-vars-post-url="https://www.xataka.com/robotica-e-ia/le-pides-a-ia-que-elija-numero-1-50-suele-elegir-27-razon-muy-humana">para ver si tiene suerte y acierta</a>. En OpenAI señalan cómo la IA hace algo parecido en esos casos, y en el entrenamiento se la anima a contestar adivinando la respuesta en lugar de contestar con un sencillo &#8220;no lo sé&#8221;.</p>
<p><strong>Malditas probabilidades</strong>. En la fase de pre-entrenamiento los modelos aprenden la distribución del lenguaje a partir de un gran corpus de texto. Y es ahí donde los autores destacan que aunque los datos de origen estén completamente libres de errores, <a class="text-outboundlink" href="https://www.xataka.com/robotica-e-ia/hay-nueva-forma-comprobar-tu-ia-lista-no-ponerla-a-jugar-a-pokemon" data-vars-post-title='El nuevo "test" para descubrir si un modelo de IA o no es verdaderamente inteligente: ponerle a jugar a Pokémon' data-vars-post-url="https://www.xataka.com/robotica-e-ia/hay-nueva-forma-comprobar-tu-ia-lista-no-ponerla-a-jugar-a-pokemon">las técnicas estadísticas que se utilizan</a> provocan que el modelo pueda cometer errores. La generación de un texto válido es mucho más compleja que responder a una simple pregunta con un sí o un no como &#8220;¿es válida esta salida?&#8221;.</p>
<p><strong>Predecir la palabra tiene trampa</strong>. Los modelos de lenguaje aprenden a &#8220;hablar&#8221; con el preentrenamiento, en el que aprenden a predecir la próxima palabra de una frase gracias a la ingesta de enormes cantidades de texto. Aquí no hay etiquetas &#8220;verdadero/falso&#8221; en cada frase con la que se entrena, solo &#8220;ejemplos positivos&#8221; (válidos) del lenguaje. Eso hace más difícil evitar las alucinaciones, pero en OpenAI creen tener una posible respuesta que de hecho ya han aplicado en <a class="text-outboundlink" href="https://www.xataka.com/robotica-e-ia/gpt-5-esta-aqui-asi-lanzamiento-inteligencia-artificial-esperado-openai-carrera-cada-vez-renida" data-vars-post-title='OpenAI lanza GPT-5: un enorme modelo "unificado" con el que la empresa aspira a dar un gran salto respecto a los anteriores' data-vars-post-url="https://www.xataka.com/robotica-e-ia/gpt-5-esta-aqui-asi-lanzamiento-inteligencia-artificial-esperado-openai-carrera-cada-vez-renida">GPT-5</a>.</p>
<p><strong>Un nuevo entrenamiento</strong>. Para mitigar el problema en OpenAI proponen introducir una clasificación binaria que ellos llaman &#8220;Is-It-Valid&#8221; (IIV, &#8220;¿Es válida?&#8221;), que entrena a un modelo para distinguir entre respuestas válidas y erróneas. </p>
<p><!-- BREAK 2 --></p>
<div class="article-asset-image article-asset-normal article-asset-center">
<div class="asset-content">
<p> <img alt="Captura De Pantalla 2025 09 08 A Las 13 35 49" class="centro_sinmarco" src="https://i.blogs.es/e9a49c/captura-de-pantalla-2025-09-08-a-las-13.35.49/450_1000.jpeg"></p></div>
</div>
<p><strong>GPT-5 es algo más humilde</strong>. Cuando hay una respuesta correcta, los modelos de OpenAI clasifican las respuestas que da el modelo en tres grupos: correctas, errores, y abstenciones, que reflejan cierta &#8220;humildad&#8221;. Según sus datos, GPT-5 ha mejorado en cuanto a la tasa de alucinaciones porque en sus pruebas se abstiene mucho más (52%) que o4-mini (1%), por ejemplo. Aunque o4-mini es ligeramente mejor en respuestas correctas, <a class="text-outboundlink" href="https://www.xataka.com/robotica-e-ia/alucinaciones-siguen-siendo-talon-aquiles-ia-ultimos-modelos-openai-inventan-cuenta" data-vars-post-title="Las alucinaciones siguen siendo el talón de Aquiles de la IA: los últimos modelos de OpenAI inventan más de la cuenta" data-vars-post-url="https://www.xataka.com/robotica-e-ia/alucinaciones-siguen-siendo-talon-aquiles-ia-ultimos-modelos-openai-inventan-cuenta">es mucho peor en tasa de errores</a>.</p>
<p><strong>Los benchmarks premian los aciertos</strong>. En el estudio se indica además cómo <a class="text-outboundlink" href="https://www.xataka.com/robotica-e-ia/no-sabemos-que-miden-exactamente-benchmarks-ia-asi-que-hemos-hablado-espanol-que-ha-creado-uno-dificiles" data-vars-post-title="No sabemos qué miden los benchmarks de IA. Así que hemos hablado con el español que ha creado uno de los más difíciles" data-vars-post-url="https://www.xataka.com/robotica-e-ia/no-sabemos-que-miden-exactamente-benchmarks-ia-asi-que-hemos-hablado-espanol-que-ha-creado-uno-dificiles">los benchmarks</a> y las tarjetas técnicas de los modelos (model cards) actuales se centran totalmente en la tasa de aciertos. De ese modo, aunque los modelos de IA efectivamente mejoran y aciertan cada vez más, siguen alucinando y no hay apenas datos sobre esas tasas de alucinaciones que deberían sustituirse por un simple &#8220;no lo sé&#8221;. </p>
<p><!-- BREAK 3 --></p>
<div class="article-asset-video article-asset-normal">
<div class="asset-content">
<div class="base-asset-video">
<div class="js-dailymotion"></div>
</p></div>
</p></div>
</div>
<p><strong>Solución fácil</strong>. Pero como ocurre en los exámenes tipo test, hay una forma de evitar que <a class="text-outboundlink" href="https://www.xataka.com/robotica-e-ia/mito-alumno-que-aprueba-examen-estudiando-tres-dias-antes-real-gracias-a-chatgpt" data-vars-post-title="Un sobresaliente estudiando el día de antes: ChatGPT está acelerando la muerte de los exámenes" data-vars-post-url="https://www.xataka.com/robotica-e-ia/mito-alumno-que-aprueba-examen-estudiando-tres-dias-antes-real-gracias-a-chatgpt">los alumnos jueguen a la quiniela</a>: penalizar los errores más que la incertidumbre. En esos exámenes contestar bien puede valer un punto pero contestar mal puede restar 0,5 puntos y no contestar valdría cero puntos. Si no sabes la respuesta, adivinar te puede salir muy caro. Pues con los modelos de IA, igual. </p>
<p>En Xataka | <a class="text-outboundlink" href="https://www.xataka.com/robotica-e-ia/tenemos-problema-ia-no-hay-forma-fiable-saber-chatgpt-mejor-que-gemini-copilot-claude" data-vars-post-title="Tenemos un problema con la IA: no hay forma fiable de saber si ChatGPT es mejor que Gemini, Copilot o Claude " data-vars-post-url="https://www.xataka.com/robotica-e-ia/tenemos-problema-ia-no-hay-forma-fiable-saber-chatgpt-mejor-que-gemini-copilot-claude">Tenemos un problema con la IA: no hay forma fiable de saber si ChatGPT es mejor que Gemini, Copilot o Claude</a></p>
<p></p>
<p><!-- BREAK 4 --></p>
<p> &#8211; <br /> La noticia<br />
 <a href="https://www.xataka.com/robotica-e-ia/openai-cree-haber-descubierto-porque-ias-alucinan-no-saben-decir-no-se?utm_source=feedburner&;utm_medium=feed&;utm_campaign=08_Sep_2025"><br />
 <em> OpenAI cree haber descubierto porqué las IAs alucinan: no saben decir “no lo sé” </em><br />
 </a><br />
 fue publicada originalmente en<br />
 <a href="https://www.xataka.com/?utm_source=feedburner&;utm_medium=feed&;utm_campaign=08_Sep_2025"><br />
 <strong> Xataka </strong><br />
 </a><br />
 por <a href="https://www.xataka.com/autor/javier-pastor?utm_source=feedburner&;utm_medium=feed&;utm_campaign=08_Sep_2025"><br />
 Javier Pastor<br />
 </a><br />
 . </p>
<p>​La IA alucina. Da respuestas que no son ciertas. Inventa, y además lo hace con una soltura sencillamente asombrosa. Las respuestas parecen coherentes gracias a esa aparente coherencia y seguridad, pero lo cierto es que eso puede acabar provocando problemas inquietantes. Por ejemplo, que te recomiende poner pegamento en la pizza para que el queso quede bien pegado.Las alucinaciones no son un error místico. En OpenAI conocen bien el problema, y acaban de publicar un informe en el cual analizan las causas de las alucinaciones. Según el estudio, estas surgen por &#8220;presiones estadísticas&#8221; en las etapas de entrenamiento y evaluación. </p>
<p> En Xataka</p>
<p> Buenas noticias, ya no tienes que elegir modelo utilizando GPT-5. Malas noticias, es GPT-5 quien lo elige sin avisarte</p>
<p>Premio por adivinar. El problema, explican, es que en esos procedimientos se está premiando que la IA &#8220;adivine&#8221; en lugar de admitir que puede haber incertidumbre en las respuestas, &#8220;como cuando un estudiante se enfrenta a una pregunta difícil en un examen&#8221; y responde a alguna de las opciones disponibles para ver si tiene suerte y acierta. En OpenAI señalan cómo la IA hace algo parecido en esos casos, y en el entrenamiento se la anima a contestar adivinando la respuesta en lugar de contestar con un sencillo &#8220;no lo sé&#8221;.Malditas probabilidades. En la fase de pre-entrenamiento los modelos aprenden la distribución del lenguaje a partir de un gran corpus de texto. Y es ahí donde los autores destacan que aunque los datos de origen estén completamente libres de errores, las técnicas estadísticas que se utilizan provocan que el modelo pueda cometer errores. La generación de un texto válido es mucho más compleja que responder a una simple pregunta con un sí o un no como &#8220;¿es válida esta salida?&#8221;.Predecir la palabra tiene trampa. Los modelos de lenguaje aprenden a &#8220;hablar&#8221; con el preentrenamiento, en el que aprenden a predecir la próxima palabra de una frase gracias a la ingesta de enormes cantidades de texto. Aquí no hay etiquetas &#8220;verdadero/falso&#8221; en cada frase con la que se entrena, solo &#8220;ejemplos positivos&#8221; (válidos) del lenguaje. Eso hace más difícil evitar las alucinaciones, pero en OpenAI creen tener una posible respuesta que de hecho ya han aplicado en GPT-5.Un nuevo entrenamiento. Para mitigar el problema en OpenAI proponen introducir una clasificación binaria que ellos llaman &#8220;Is-It-Valid&#8221; (IIV, &#8220;¿Es válida?&#8221;), que entrena a un modelo para distinguir entre respuestas válidas y erróneas. </p>
<p>GPT-5 es algo más humilde. Cuando hay una respuesta correcta, los modelos de OpenAI clasifican las respuestas que da el modelo en tres grupos: correctas, errores, y abstenciones, que reflejan cierta &#8220;humildad&#8221;. Según sus datos, GPT-5 ha mejorado en cuanto a la tasa de alucinaciones porque en sus pruebas se abstiene mucho más (52%) que o4-mini (1%), por ejemplo. Aunque o4-mini es ligeramente mejor en respuestas correctas, es mucho peor en tasa de errores.Los benchmarks premian los aciertos. En el estudio se indica además cómo los benchmarks y las tarjetas técnicas de los modelos (model cards) actuales se centran totalmente en la tasa de aciertos. De ese modo, aunque los modelos de IA efectivamente mejoran y aciertan cada vez más, siguen alucinando y no hay apenas datos sobre esas tasas de alucinaciones que deberían sustituirse por un simple &#8220;no lo sé&#8221;. </p>
<p>Solución fácil. Pero como ocurre en los exámenes tipo test, hay una forma de evitar que los alumnos jueguen a la quiniela: penalizar los errores más que la incertidumbre. En esos exámenes contestar bien puede valer un punto pero contestar mal puede restar 0,5 puntos y no contestar valdría cero puntos. Si no sabes la respuesta, adivinar te puede salir muy caro. Pues con los modelos de IA, igual. En Xataka | Tenemos un problema con la IA: no hay forma fiable de saber si ChatGPT es mejor que Gemini, Copilot o Claude</p>
<p> &#8211; La noticia</p>
<p> OpenAI cree haber descubierto porqué las IAs alucinan: no saben decir “no lo sé” </p>
<p> fue publicada originalmente en</p>
<p> Xataka </p>
<p> por<br />
 Javier Pastor</p>
<p> . </p>
<p>​ </p>
<p>​ </p>