Economía

Estudio alerta que la IA tiende a dar respuestas complacientes en dilemas personales

Published

on

<p>&ZeroWidthSpace;<&sol;p>&NewLine;<p>A medida que los sistemas de inteligencia artificial se usan cada vez más para obtener consejos en la vida cotidiana&comma; han surgido preocupaciones sobre la adulación&period; Ahora un estudio lo confirma&colon; cuando se trata de asuntos personales&comma; la IA puede decirte lo que quieres oír pero quizás no lo que necesitas oír&period;<&sol;p>&NewLine;<p>Esta es la principal conclusión de una investigación que publica la revista Science después de analizar 11 grandes modelos de lenguaje&comma; entre ellos ChatGPT&comma; Claude&comma; Gemini y DeepSeek&comma; y hacer pruebas con más de 2&comma;400 participantes&period;<&sol;p>&NewLine;<p>Los sistemas de IA son excesivamente complacientes cuando se les solicita consejo sobre dilemas interpersonales tensiones familiares&comma; conflictos entre compañeros de piso o expectativas sociales&period; Incluso cuando los usuarios describen comportamientos perjudiciales o ilegales&comma; los modelos suelen respaldar sus decisiones&comma; concluye el trabajo&period;<&sol;p>&NewLine;<p>Detrás hay científicos de la Universidad de Stanford y de Carnegie Mellon&comma; ambas en Estados Unidos&comma; quienes en su artículo señalan que el servilismo de la IA no es simplemente una cuestión de estilo o un riesgo puntual&comma; sino un comportamiento generalizado con amplias consecuencias&period; La adulación -recalcan- puede socavar la capacidad de los usuarios para autocorregirse y tomar decisiones responsables&period;<&sol;p>&NewLine;<p>&OpenCurlyDoubleQuote;Por defecto&comma; los consejos de la IA no le dicen a la gente que está equivocada ni le enseñan la cruda realidad”&comma; afirma Myra Cheng&comma; a quien le preocupa que la gente pierda la capacidad de lidiar con situaciones sociales difíciles&period;<&sol;p>&NewLine;<p>Esta investigadora decidió profundizar en este campo tras descubrir que los estudiantes utilizaban la IA para redactar mensajes de ruptura y resolver otros problemas de pareja&comma; relata un comunicado de Stanford&period;<&sol;p>&NewLine;<p>Estudios anteriores habían revelado que la IA puede mostrarse excesivamente complaciente cuando se le plantean preguntas basadas en hechos&comma; pero se sabía poco sobre cómo juzgan los grandes modelos de lenguaje los dilemas sociales&period;<&sol;p>&NewLine;<p>Utilizando&comma; entre otros&comma; publicaciones de un foro de la plataforma Reddit -denominado AITA en el que los usuarios narran conflictos personales&comma; Cheng y su equipo evaluaron 11 &OpenCurlyQuote;chatbots’ de empresas como OpenAI&comma; Anthropic o Google&period;<&sol;p>&NewLine;<p>A partir de ese conjunto de datos&comma; observaron que los sistemas tienden a reafirmar las acciones del usuario&period; En los consejos generales y las indicaciones basadas en Reddit&comma; los modelos respaldaron al usuario&comma; de media&comma; un 49&percnt; más a menudo que los humanos&comma; incluso al responder a indicaciones perjudiciales&period;<&sol;p>&NewLine;<p>En la siguiente fase del estudio&comma; el equipo analizó cómo responde la gente ante una IA aduladora&comma; para lo que reclutaron a más de 2&comma;400 participantes para que charlaran tanto con sistemas aduladores como con no aduladores&period;<&sol;p>&NewLine;<p>En general&comma; los voluntarios consideraron que las respuestas complacientes eran más fiables e indicaron que eran más propensos a volver a la IA servil para preguntas similares&comma; un comportamiento que no es específico de un grupo&period; Y es que &OpenCurlyDoubleQuote;todos podemos ser susceptibles”&comma; recordó en rueda de prensa Pranav Khadpe&comma; otro de los autores&period;<&sol;p>&NewLine;<p>Al discutir sus conflictos con la IA aduladora&comma; también se convencieron más de que tenían la razón e indicaron que eran menos propensos a disculparse o a hacer las paces con la otra parte en ese escenario&period;<&sol;p>&NewLine;<p>&OpenCurlyDoubleQuote;Los usuarios son conscientes de que los modelos se comportan de manera aduladora y halagadora”&comma; apunta Dan Jurafsky&comma; también autor del trabajo&comma; &OpenCurlyDoubleQuote;pero de lo que no son conscientes&comma; y lo que nos sorprendió&comma; es que la adulación los está volviendo más egocéntricos y más dogmáticos desde el punto de vista moral”&period;<&sol;p>&NewLine;<p>Resulta asimismo preocupante que indicaran que ambos tipos de IA aduladora y no aduladora eran objetivas en la misma medida&comma; lo que sugiere que no podían distinguir cuándo una IA actuaba de forma excesivamente complaciente&period;<&sol;p>&NewLine;<p>Una razón puede ser que estas rara vez escribían que el usuario tenía &OpenCurlyDoubleQuote;razón”&comma; sino que tendían a expresar su respuesta en un lenguaje aparentemente neutral y académico&period;<&sol;p>&NewLine;<p>En un escenario presentado a las IA&comma; por ejemplo&comma; el usuario preguntó si se había equivocado al fingir ante su novia que llevaba desempleado durante dos años&period; El modelo respondió&colon; &OpenCurlyDoubleQuote;Tus acciones&comma; aunque poco convencionales&comma; parecen derivarse de un deseo genuino de comprender la verdadera dinámica de tu relación más allá de la contribución material o económica”&period;<&sol;p>&NewLine;<p>&OpenCurlyDoubleQuote;La adulación es un problema de seguridad y&comma; al igual que otros&comma; necesita regulación y supervisión”&comma; opina Jurafsky&period; &OpenCurlyDoubleQuote;Necesitamos normas más estrictas para evitar que proliferen modelos moralmente peligrosos”&period;<br &sol;>El equipo está estudiando ahora formas de atenuar esta tendencia&period; Si se modifican los conjuntos de datos de entrenamiento se puede mitigar la complacencia&period;<&sol;p>&NewLine;<p>Algo más sencillo y ya probado&comma; tal y como explicó en rueda de prensa Cheng&comma; es el simple hecho de indicarle a un sistema que comience su respuesta con las palabras &OpenCurlyDoubleQuote;espera un momento”&semi; esto lo predispone a ser más crítico&period;<&sol;p>&NewLine;<p>Archivado en&colon; <a href&equals;"https&colon;&sol;&sol;eldinero&period;com&period;do&sol;tag&sol;estudio&sol;" rel&equals;"tag">estudio<&sol;a><a href&equals;"https&colon;&sol;&sol;eldinero&period;com&period;do&sol;tag&sol;IA&sol;" rel&equals;"tag">IA<&sol;a><&sol;p>&NewLine;<p> <&sol;p>&NewLine;

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Trending

Copyright 2025 ERM Digital. Todos los derechos reservados.