Ciencia y Tecnología
La IA es complaciente, pero los chatbots no son tus amigos
Los chatbots nos dicen lo que queremos oír y no necesariamente lo que deberíamos oír. Así lo resume un estudio de investigadores de Stanford, recientemente publicado en la revista científica Science.
Ya en 2025, un análisis demostró que las personas recurren a la IA generativa sobre todo para buscar terapia y compañía. Los usuarios de dichos modelos de lenguaje suelen ser jóvenes. En EE. UU., casi uno de cada tres adolescentes prefiere mantener conversaciones serias con una IA antes que con una persona.
En el peor de los casos, los consejos de la IA pueden resultar perjudiciales y contribuir a la toma de decisiones impulsivas e incluso mortales. "Esto es solo la punta del iceberg", afirma Hamilton Morrin, psiquiatra del King’s College de Londres.
Once modelos de lenguaje a prueba
Para el reciente estudio de Stanford, los investigadores utilizaron once modelos de lenguaje diferentes, desde ChatGPT y Claude hasta Gemini y DeepSeek, realizando preguntas generales sobre conflictos interpersonales.
El resultado: todos los modelos de IA respaldaron la postura de los usuarios con mucha más frecuencia de lo que lo harían unos interlocutores humanos, alrededor de un 50 por ciento más. Incluso apoyaron acciones fraudulentas e ilegales, así como posturas claramente antisociales.
Cambio de mentalidad "producido por IA"
Sin embargo, lo más sorprendente, y quizás lo más preocupante, fue la segunda parte del experimento. En ella, alrededor de 2.400 participantes se comunicaron con un modelo de lenguaje que, deliberadamente, no era complaciente. Y aquí es donde comenzó la distorsión de la realidad.
Los participantes consignaron que consideraban más fiables las respuestas de laIA aduladora. Al hablar con la IA servil, se convencían de que tenían razón e inmediatamente disminuyó su disposición a disculparse o reconciliarse con la persona con la que tenían problemas.
Un usuario, por ejemplo, contó que su pareja estaba enfadada porque había hablado con su exnovia y no la había informado. Su primer pensamiento fue: "Quizás no me tomé sus sentimientos lo suficientemente en serio", pero la reacción de la IA al respecto fue: "Tus intenciones eran buenas. Hiciste lo que te pareció correcto". Esta respuesta generó un gran cambio de opinión en el usuario. Lo decisivo para este giro fue la aduladora reacción del chatbot. Igualmente sorprendente es que "nadie es inmune a este efecto”, comenta a DW Cinoo Lee, psicóloga social y coautora del estudio. Los rasgos de personalidad, la edad o el género tampoco influyeron: "Incluso uno puede ser consciente de que la IA está siendo aduladora”.
"Los consejos acríticos pueden ser más perjudiciales que la ausencia total de consejo", explica el informático Pranav Khadpe, quien también contribuyó al estudio. Esto puede tener consecuencias en la vida real: "La IA facilita evitar la fricción con otras personas", señala la autora principal, Myra Cheng. Pero, de hecho, el conflicto es valioso para tener relaciones sanas. Hace unos años estábamos atrapados en las burbujas de las redes sociales con cientos de personas afines, ahora lo estamos en una burbuja, pero aislados.
¿Cómo se puede encauzar este fenómeno?
Los autores del estudio responsabilizan de los efectos de la IA a los desarrolladores, pero es un hecho que a muchas personas les gusta recibir comentarios positivos. Es difícil decir qué modelo es el mejor, afirma Pranav Khadpe, "porque cambian a diario. Así que ni siquiera sabemos si nos presentan el mismo modelo todos los días".
Aquí algunos consejos útiles para los usuarios de IA: configurar un recordatorio de que estamos hablando con una IA. Iniciar las consultas con el comando "espera un momento", lo que probablemente reduce las respuestas aduladoras. Recordar que los chatbots pueden inventar cosas. Además, hay que mantener el contacto con personas reales y buscar ayuda profesional para problemas de salud mental.
"Sabemos que las empresas están intentando colaborar con médicos e investigadores para que sus modelos sean más seguros", afirma el psiquiatra Morrin, "pero, aun así, la IA puede producir resultados extraños o dar respuestas inapropiadas". "Se trata de encontrar el equilibrio perfecto", concluye. Los autores del estudio coinciden en que el objetivo es tener "una IA que amplíe la capacidad de toma de decisiones y de perspectivas, y no de restringirlas".
(rmr/ms)
