Ciencia y Tecnología
Hay un truco para que los modelos IA sean más fiables: hablarles mal
<p>
 <img src="https://i.blogs.es/f4c8ef/pexels-olly-3760790/1024_2000.jpeg" alt="Hay un truco para que los modelos IA sean más fiables: hablarles mal ">
 </p>
<p>Si saludas a ChatGPT y le das las gracias cuando te responde, no estás sacándole todo el partido. Unos investigadores han querido comprobar si el tono que usamos al pedirle cosas a la IA cambia los resultados y han descubierto algo interesante: ser groseros los hace más fiables.</p>
<p><!-- BREAK 1 --></p>
<p><strong>Grosero</strong>. Lo cuentan en <a rel="noopener, noreferrer" href="https://ruben.substack.com/p/sorry?r=9c71">How to AI</a>. Un <a rel="noopener, noreferrer" href="https://www.arxiv.org/pdf/2510.04950">estudio llevado a cabo por investigadores de la Universidad de Pennsilvania</a> ha analizado si el tono que usamos al escribir un prompt tiene efecto en el resultado y las conclusiones son claras. Los prompts con tono ‘grosero’ o ‘muy grosero’ consiguieron respuestas hasta un 4% más precisas que los que usaban un tono más cortés.</p>
<p><!-- BREAK 2 --></p>
<div class="article-asset article-asset-normal article-asset-center">
<div class="desvio-container">
<div class="desvio">
<div class="desvio-figure js-desvio-figure">
 <a href="https://www.xataka.com/magnet/ayudar-al-camarero-a-recoger-mesa-parecia-gesto-importancia-psicologia-ha-demostrado-que-dice-mucho-ti" class="pivot-outboundlink" data-vars-post-title="Ayudar al camarero a recoger la mesa parece un gesto amable: los psicólogos ven algo mucho más profundo"><br />
 <img alt="Ayudar al camarero a recoger la mesa parece un gesto amable: los psicólogos ven algo mucho más profundo" width="375" height="142" src="https://i.blogs.es/aaea2f/camarero/375_142.jpeg"><br />
 </a>
 </div>
<div class="desvio-summary">
<div class="desvio-taxonomy js-desvio-taxonomy">
 <a href="https://www.xataka.com/magnet/ayudar-al-camarero-a-recoger-mesa-parecia-gesto-importancia-psicologia-ha-demostrado-que-dice-mucho-ti" class="desvio-taxonomy-anchor pivot-outboundlink" data-vars-post-title="Ayudar al camarero a recoger la mesa parece un gesto amable: los psicólogos ven algo mucho más profundo">En Xataka</a>
 </div>
<p> <a href="https://www.xataka.com/magnet/ayudar-al-camarero-a-recoger-mesa-parecia-gesto-importancia-psicologia-ha-demostrado-que-dice-mucho-ti" class="desvio-title js-desvio-title pivot-outboundlink" data-vars-post-title="Ayudar al camarero a recoger la mesa parece un gesto amable: los psicólogos ven algo mucho más profundo">Ayudar al camarero a recoger la mesa parece un gesto amable: los psicólogos ven algo mucho más profundo</a>
 </div>
</p></div>
</p></div>
</div>
<p><strong>El estudio</strong>. Para ponerlo a prueba generaron una lista de 50 preguntas de distintos temas como historia, ciencia o matemáticas. Cada una de las preguntas se formuló usando cinco tonos distintos: muy cortés, cortés, neutral, grosero y muy grosero. El modelo que usaron fue ChatGPT-4o.</p>
<p><!-- BREAK 3 --></p>
<p><strong>Los resultados</strong>. Los investigadores hicieron diez rondas con todas las preguntas en los distintos tonos y las conclusiones son muy claras. Si nos fijamos en las variaciones, la diferencia entre el tono neutral o grosero es de sólo un 0,6%, pero en los extremos se hace más evidente la diferencia. Al usar un tono ‘muy amable’, la precisión media fue del 80,8%, mientras que si nos vamos a ‘muy grosero’, aumentó hasta un 84,8%. </p>
<p><!-- BREAK 4 --></p>
<div class="article-asset-image article-asset-normal article-asset-center">
<div class="asset-content">
<div class="caption-img ">
<p> <img alt="Captura De Pantalla 2025 10 27 094146" class="centro_sinmarco" src="https://i.blogs.es/786d63/captura-de-pantalla-2025-10-27-094146/450_1000.jpeg"></p>
<p> <span>Fuente: <a href="https://www.arxiv.org/pdf/2510.04950">Penn State University</a></span>
 </div>
</p></div>
</div>
<p><strong>Amabilidad por defecto</strong>. Tendemos a hablar con amabilidad a los chatbots, así lo refleja <a rel="noopener, noreferrer" href="https://www.techradar.com/computing/artificial-intelligence/are-you-polite-to-chatgpt-heres-where-you-rank-among-ai-chatbot-users">la encuesta que Future realizó a finales de 2024</a>. Al menos un 70% de los encuestados admitió usar “por favor” y “gracias” al usar chatbots con IA. Muchos aseguraban hacerlo por una cuestión de costumbre, cultura y “porque es lo correcto”, aunque un pequeño porcentaje admitió tener miedo de que en el futuro los robots se rebelen. </p>
<p><!-- BREAK 5 --></p>
<p><strong>Sale caro</strong>. Independientemente de las razones que nos lleven a ser amables con la IA, hay una realidad y es que <a class="text-outboundlink" href="https://www.xataka.com/robotica-e-ia/amabilidad-chatgpt-le-esta-saliendo-cara-a-openai-favor-gracias-tienen-coste-absurdo-cada-mes" data-vars-post-title='La amabilidad con ChatGPT le está saliendo cara a OpenAI: los "por favor" y "gracias" tienen un coste absurdo cada mes' data-vars-post-url="https://www.xataka.com/robotica-e-ia/amabilidad-chatgpt-le-esta-saliendo-cara-a-openai-favor-gracias-tienen-coste-absurdo-cada-mes">los “por favor” y “gracias” tienen un coste absurdo</a>. Cuando le damos las gracias a ChatGPT se aumentan las peticiones al modelo de lemguaje, lo que aumenta el consumo de electricidad y agua en los centros de datos. No tenemos cifras, pero <a rel="noopener, noreferrer" href="https://x.com/sama/status/1912646035979239430">Sam Altman aseguró</a> que la amabilidad le ha costado a OpenAI “decenas de millones de dólares bien gastados”.</p>
<p><!-- BREAK 6 --></p>
<div class="article-asset-video article-asset-normal">
<div class="asset-content">
<div class="base-asset-video">
<div class="js-dailymotion"></div>
</p></div>
</p></div>
</div>
<p><strong>El prompt</strong>. A pesar de los enormes avances de la IA, <a class="text-outboundlink" href="https://www.xataka.com/robotica-e-ia/openai-cree-haber-descubierto-porque-ias-alucinan-no-saben-decir-no-se" data-vars-post-title='Necesitamos una IA de la que poder fiarnos y que no "alucine". En OpenAI creen tener la solución al problema' data-vars-post-url="https://www.xataka.com/robotica-e-ia/openai-cree-haber-descubierto-porque-ias-alucinan-no-saben-decir-no-se">los modelos de lenguaje siguen alucinando y no son 100% fiables</a>. Sin embargo, muchas veces la culpa de que las respuestas no sean exactas no la tiene el modelo, sino cómo se lo estamos pidiendo. Hay <a class="text-outboundlink" href="https://www.xataka.com/robotica-e-ia/26-trucos-para-conseguir-prompt-perfecto-estas-instrucciones-ia-nos-dara-mejores-resultados" data-vars-post-title="26 trucos para conseguir el prompt perfecto: con estas instrucciones la IA nos dará los mejores resultados" data-vars-post-url="https://www.xataka.com/robotica-e-ia/26-trucos-para-conseguir-prompt-perfecto-estas-instrucciones-ia-nos-dara-mejores-resultados">trucos para conseguir un buen prompt</a> y ser amable o usar muletillas como “si puedes, me gustaría que…” es uno de los puntos a evitar. Tampoco es cuestión de tratarlos mal porque eso tampoco aporta, pero cuanto más directo y claro seas, mejor será el resultado.</p>
<p><!-- BREAK 7 --></p>
<p>Imagen | <a rel="noopener, noreferrer" href="https://www.pexels.com/photo/mad-formal-executive-man-yelling-at-camera-3760790/">Pexels</a></p>
<p>En Xataka | <a class="text-outboundlink" href="https://www.xataka.com/robotica-e-ia/tenemos-gran-problema-agentes-ia-se-equivocan-70-veces" data-vars-post-title="Los agentes de IA quieren quitarnos el trabajo. Primero tendrán que aprender a no fallar en el 70% de las tareas" data-vars-post-url="https://www.xataka.com/robotica-e-ia/tenemos-gran-problema-agentes-ia-se-equivocan-70-veces">Los agentes de IA quieren quitarnos el trabajo. Primero tendrán que aprender a no fallar en el 70% de las tareas</a></p>
<p> &#8211; <br /> La noticia<br />
 <a href="https://www.xataka.com/robotica-e-ia/hay-truco-modelos-ia-sean-fiables-hablarles-mal?utm_source=feedburner&;utm_medium=feed&;utm_campaign=27_Oct_2025"><br />
 <em> Hay un truco para que los modelos IA sean más fiables: hablarles mal </em><br />
 </a><br />
 fue publicada originalmente en<br />
 <a href="https://www.xataka.com/?utm_source=feedburner&;utm_medium=feed&;utm_campaign=27_Oct_2025"><br />
 <strong> Xataka </strong><br />
 </a><br />
 por <a href="https://www.xataka.com/autor/amparo-babiloni?utm_source=feedburner&;utm_medium=feed&;utm_campaign=27_Oct_2025"><br />
 Amparo Babiloni<br />
 </a><br />
 . </p>
<p>​Si saludas a ChatGPT y le das las gracias cuando te responde, no estás sacándole todo el partido. Unos investigadores han querido comprobar si el tono que usamos al pedirle cosas a la IA cambia los resultados y han descubierto algo interesante: ser groseros los hace más fiables.</p>
<p>Grosero. Lo cuentan en How to AI. Un estudio llevado a cabo por investigadores de la Universidad de Pennsilvania ha analizado si el tono que usamos al escribir un prompt tiene efecto en el resultado y las conclusiones son claras. Los prompts con tono ‘grosero’ o ‘muy grosero’ consiguieron respuestas hasta un 4% más precisas que los que usaban un tono más cortés.</p>
<p> En Xataka</p>
<p> Ayudar al camarero a recoger la mesa parece un gesto amable: los psicólogos ven algo mucho más profundo</p>
<p>El estudio. Para ponerlo a prueba generaron una lista de 50 preguntas de distintos temas como historia, ciencia o matemáticas. Cada una de las preguntas se formuló usando cinco tonos distintos: muy cortés, cortés, neutral, grosero y muy grosero. El modelo que usaron fue ChatGPT-4o.</p>
<p>Los resultados. Los investigadores hicieron diez rondas con todas las preguntas en los distintos tonos y las conclusiones son muy claras. Si nos fijamos en las variaciones, la diferencia entre el tono neutral o grosero es de sólo un 0,6%, pero en los extremos se hace más evidente la diferencia. Al usar un tono ‘muy amable’, la precisión media fue del 80,8%, mientras que si nos vamos a ‘muy grosero’, aumentó hasta un 84,8%. </p>
<p> Fuente: Penn State University</p>
<p>Amabilidad por defecto. Tendemos a hablar con amabilidad a los chatbots, así lo refleja la encuesta que Future realizó a finales de 2024. Al menos un 70% de los encuestados admitió usar “por favor” y “gracias” al usar chatbots con IA. Muchos aseguraban hacerlo por una cuestión de costumbre, cultura y “porque es lo correcto”, aunque un pequeño porcentaje admitió tener miedo de que en el futuro los robots se rebelen. </p>
<p>Sale caro. Independientemente de las razones que nos lleven a ser amables con la IA, hay una realidad y es que los “por favor” y “gracias” tienen un coste absurdo. Cuando le damos las gracias a ChatGPT se aumentan las peticiones al modelo de lemguaje, lo que aumenta el consumo de electricidad y agua en los centros de datos. No tenemos cifras, pero Sam Altman aseguró que la amabilidad le ha costado a OpenAI “decenas de millones de dólares bien gastados”.</p>
<p>El prompt. A pesar de los enormes avances de la IA, los modelos de lenguaje siguen alucinando y no son 100% fiables. Sin embargo, muchas veces la culpa de que las respuestas no sean exactas no la tiene el modelo, sino cómo se lo estamos pidiendo. Hay trucos para conseguir un buen prompt y ser amable o usar muletillas como “si puedes, me gustaría que…” es uno de los puntos a evitar. Tampoco es cuestión de tratarlos mal porque eso tampoco aporta, pero cuanto más directo y claro seas, mejor será el resultado.</p>
<p>Imagen | Pexels</p>
<p>En Xataka | Los agentes de IA quieren quitarnos el trabajo. Primero tendrán que aprender a no fallar en el 70% de las tareas</p>
<p> &#8211; La noticia</p>
<p> Hay un truco para que los modelos IA sean más fiables: hablarles mal </p>
<p> fue publicada originalmente en</p>
<p> Xataka </p>
<p> por<br />
 Amparo Babiloni</p>
<p> . </p>
<p>​ </p>
<p>​ </p>