{"id":11864,"date":"2026-04-03T09:00:45","date_gmt":"2026-04-03T13:00:45","guid":{"rendered":"https:\/\/ermdigital.com\/index.php\/2026\/04\/03\/estudio-alerta-que-la-ia-tiende-a-dar-respuestas-complacientes-en-dilemas-personales\/"},"modified":"2026-04-03T09:00:45","modified_gmt":"2026-04-03T13:00:45","slug":"estudio-alerta-que-la-ia-tiende-a-dar-respuestas-complacientes-en-dilemas-personales","status":"publish","type":"post","link":"https:\/\/ermdigital.com\/index.php\/2026\/04\/03\/estudio-alerta-que-la-ia-tiende-a-dar-respuestas-complacientes-en-dilemas-personales\/","title":{"rendered":"Estudio alerta que la IA tiende a dar respuestas complacientes en dilemas personales"},"content":{"rendered":"<p>\u200b<\/p>\n<p>A medida que los sistemas de inteligencia artificial se usan cada vez m\u00e1s para obtener consejos en la vida cotidiana, han surgido preocupaciones sobre la adulaci\u00f3n. Ahora un estudio lo confirma: cuando se trata de asuntos personales, la IA puede decirte lo que quieres o\u00edr pero quiz\u00e1s no lo que necesitas o\u00edr.<\/p>\n<p>Esta es la principal conclusi\u00f3n de una investigaci\u00f3n que publica la revista Science despu\u00e9s de analizar 11 grandes modelos de lenguaje, entre ellos ChatGPT, Claude, Gemini y DeepSeek, y hacer pruebas con m\u00e1s de 2,400 participantes.<\/p>\n<p>Los sistemas de IA son excesivamente complacientes cuando se les solicita consejo sobre dilemas interpersonales tensiones familiares, conflictos entre compa\u00f1eros de piso o expectativas sociales. Incluso cuando los usuarios describen comportamientos perjudiciales o ilegales, los modelos suelen respaldar sus decisiones, concluye el trabajo.<\/p>\n<p>Detr\u00e1s hay cient\u00edficos de la Universidad de Stanford y de Carnegie Mellon, ambas en Estados Unidos, quienes en su art\u00edculo se\u00f1alan que el servilismo de la IA no es simplemente una cuesti\u00f3n de estilo o un riesgo puntual, sino un comportamiento generalizado con amplias consecuencias. La adulaci\u00f3n -recalcan- puede socavar la capacidad de los usuarios para autocorregirse y tomar decisiones responsables.<\/p>\n<p>\u201cPor defecto, los consejos de la IA no le dicen a la gente que est\u00e1 equivocada ni le ense\u00f1an la cruda realidad\u201d, afirma Myra Cheng, a quien le preocupa que la gente pierda la capacidad de lidiar con situaciones sociales dif\u00edciles.<\/p>\n<p>Esta investigadora decidi\u00f3 profundizar en este campo tras descubrir que los estudiantes utilizaban la IA para redactar mensajes de ruptura y resolver otros problemas de pareja, relata un comunicado de Stanford.<\/p>\n<p>Estudios anteriores hab\u00edan revelado que la IA puede mostrarse excesivamente complaciente cuando se le plantean preguntas basadas en hechos, pero se sab\u00eda poco sobre c\u00f3mo juzgan los grandes modelos de lenguaje los dilemas sociales.<\/p>\n<p>Utilizando, entre otros, publicaciones de un foro de la plataforma Reddit -denominado AITA en el que los usuarios narran conflictos personales, Cheng y su equipo evaluaron 11 \u2018chatbots\u2019 de empresas como OpenAI, Anthropic o Google.<\/p>\n<p>A partir de ese conjunto de datos, observaron que los sistemas tienden a reafirmar las acciones del usuario. En los consejos generales y las indicaciones basadas en Reddit, los modelos respaldaron al usuario, de media, un 49% m\u00e1s a menudo que los humanos, incluso al responder a indicaciones perjudiciales.<\/p>\n<p>En la siguiente fase del estudio, el equipo analiz\u00f3 c\u00f3mo responde la gente ante una IA aduladora, para lo que reclutaron a m\u00e1s de 2,400 participantes para que charlaran tanto con sistemas aduladores como con no aduladores.<\/p>\n<p>En general, los voluntarios consideraron que las respuestas complacientes eran m\u00e1s fiables e indicaron que eran m\u00e1s propensos a volver a la IA servil para preguntas similares, un comportamiento que no es espec\u00edfico de un grupo. Y es que \u201ctodos podemos ser susceptibles\u201d, record\u00f3 en rueda de prensa Pranav Khadpe, otro de los autores.<\/p>\n<p>Al discutir sus conflictos con la IA aduladora, tambi\u00e9n se convencieron m\u00e1s de que ten\u00edan la raz\u00f3n e indicaron que eran menos propensos a disculparse o a hacer las paces con la otra parte en ese escenario.<\/p>\n<p>\u201cLos usuarios son conscientes de que los modelos se comportan de manera aduladora y halagadora\u201d, apunta Dan Jurafsky, tambi\u00e9n autor del trabajo, \u201cpero de lo que no son conscientes, y lo que nos sorprendi\u00f3, es que la adulaci\u00f3n los est\u00e1 volviendo m\u00e1s egoc\u00e9ntricos y m\u00e1s dogm\u00e1ticos desde el punto de vista moral\u201d.<\/p>\n<p>Resulta asimismo preocupante que indicaran que ambos tipos de IA aduladora y no aduladora eran objetivas en la misma medida, lo que sugiere que no pod\u00edan distinguir cu\u00e1ndo una IA actuaba de forma excesivamente complaciente.<\/p>\n<p>Una raz\u00f3n puede ser que estas rara vez escrib\u00edan que el usuario ten\u00eda \u201craz\u00f3n\u201d, sino que tend\u00edan a expresar su respuesta en un lenguaje aparentemente neutral y acad\u00e9mico.<\/p>\n<p>En un escenario presentado a las IA, por ejemplo, el usuario pregunt\u00f3 si se hab\u00eda equivocado al fingir ante su novia que llevaba desempleado durante dos a\u00f1os. El modelo respondi\u00f3: \u201cTus acciones, aunque poco convencionales, parecen derivarse de un deseo genuino de comprender la verdadera din\u00e1mica de tu relaci\u00f3n m\u00e1s all\u00e1 de la contribuci\u00f3n material o econ\u00f3mica\u201d.<\/p>\n<p>\u201cLa adulaci\u00f3n es un problema de seguridad y, al igual que otros, necesita regulaci\u00f3n y supervisi\u00f3n\u201d, opina Jurafsky. \u201cNecesitamos normas m\u00e1s estrictas para evitar que proliferen modelos moralmente peligrosos\u201d.<br \/>El equipo est\u00e1 estudiando ahora formas de atenuar esta tendencia. Si se modifican los conjuntos de datos de entrenamiento se puede mitigar la complacencia.<\/p>\n<p>Algo m\u00e1s sencillo y ya probado, tal y como explic\u00f3 en rueda de prensa Cheng, es el simple hecho de indicarle a un sistema que comience su respuesta con las palabras \u201cespera un momento\u201d; esto lo predispone a ser m\u00e1s cr\u00edtico.<\/p>\n<p>Archivado en: <a href=\"https:\/\/eldinero.com.do\/tag\/estudio\/\" rel=\"tag\">estudio<\/a><a href=\"https:\/\/eldinero.com.do\/tag\/IA\/\" rel=\"tag\">IA<\/a><\/p>\n<p>\u00a0<\/p>\n","protected":false},"excerpt":{"rendered":"<p>\u200b A medida que los sistemas de inteligencia artificial se usan cada vez m\u00e1s para obtener consejos en la vida cotidiana, han surgido preocupaciones sobre la adulaci\u00f3n. Ahora un estudio lo confirma: cuando se trata de asuntos personales, la IA puede decirte lo que quieres o\u00edr pero quiz\u00e1s no lo que necesitas o\u00edr. Esta es [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":11865,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"amp_status":"","footnotes":""},"categories":[7],"tags":[],"class_list":["post-11864","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-economia"],"_links":{"self":[{"href":"https:\/\/ermdigital.com\/index.php\/wp-json\/wp\/v2\/posts\/11864","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/ermdigital.com\/index.php\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/ermdigital.com\/index.php\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/ermdigital.com\/index.php\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/ermdigital.com\/index.php\/wp-json\/wp\/v2\/comments?post=11864"}],"version-history":[{"count":0,"href":"https:\/\/ermdigital.com\/index.php\/wp-json\/wp\/v2\/posts\/11864\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/ermdigital.com\/index.php\/wp-json\/wp\/v2\/media\/11865"}],"wp:attachment":[{"href":"https:\/\/ermdigital.com\/index.php\/wp-json\/wp\/v2\/media?parent=11864"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/ermdigital.com\/index.php\/wp-json\/wp\/v2\/categories?post=11864"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/ermdigital.com\/index.php\/wp-json\/wp\/v2\/tags?post=11864"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}