Tecnología
¿Cómo detectar errores en los chatbots de inteligencia artificial?

Una red de sitios web prorrusos aparentemente está engañando a los chatbots con informes falsos generados por IA. Los analistas sospechan que existe un plan. ¿Cómo pueden protegerse los usuarios?
Una red de sitios web prorrusos aparentemente está engañando a los chatbots con informes falsos generados por IA. Los analistas sospechan que existe un plan. ¿Cómo pueden protegerse los usuarios?
Cada vez más personas usan chatbots basados en inteligencia artificial (IA), como ChatGPT, Gemini, Le Chat y Copilot, en lugar de motores de búsqueda para encontrar información en línea. La ventaja es que estos modelos de lenguaje extenso (LLM) no solo proporcionan enlaces a la información que reproducen, sino que también resumen el contenido de forma concisa, lo que permite a los usuarios acceder a más información con mayor rapidez.
Sin embargo, este enfoque también es propenso a equivocaciones. Al fin y al cabo, no es raro que los chatbots cometan errores. Este fenómeno, conocido como alucinación, se conoce desde hace mucho tiempo.
En otros casos, los chatbots de IA combinan la información de tal manera que producen un resultado incorrecto. Los expertos denominan esto confabulación.
Los chatbots también se dejan engañar por noticias falsas sobre eventos actuales, aunque esto es menos conocido, según la empresa estadounidense NewsGuard, que se ha propuesto comprobar la credibilidad y la transparencia de sitios y servicios web.
¿Por qué los chatbots rusos de IA propagan desinformación?
Portal Kombat, una red de propaganda rusa que ha llamado la atención con numerosas campañas de desinformación, podría ser uno de los actores clave de la desinformación en línea. La red apoya la invasión rusa de Ucrania a través de portales de internet que difunden propaganda prorrusa.
Portal Kombat fue investigado por Viginum, una unidad de investigación del gobierno francés creada para contrarrestar la información manipulada procedente del extranjero. El centro de monitoreo encontró al menos 193 sitios web diferentes que atribuyó a esta red entre septiembre y diciembre de 2023.
El vector central de la red parece ser el portal de noticias en línea Pravda, disponible en varios idiomas, como alemán, francés, polaco, español e inglés.
Avalancha de noticias falsas en todo el mundo
Según Viginum, los sitios web de Portal Kombat no publican sus propios artículos. En su lugar, reproducen contenido de terceros usando principalmente tres fuentes: «Cuentas de redes sociales de actores rusos o prorrusos, agencias de noticias rusas y sitios web oficiales de instituciones o actores locales», como afirma un informe de febrero.
Los artículos se caracterizan por una redacción incómoda, errores típicos de transcripción del alfabeto cirílico al latino y comentarios sensacionalistas.
La iniciativa estadounidense contra la desinformación American Sunlight Project (ASP) ha identificado más de 180 sitios sospechosos de pertenecer a Portal Kombat.
Según estimaciones de ASP, unos 97 dominios y subdominios pertenecientes al círculo interno de la red Pravda publican más de 10.000 artículos al día.
Los temas ya no se limitan a la OTAN y países aliados como Japón y Australia, sino que también abarcan países de Medio Oriente, Asia y África, en particular la región de Sahel, donde Rusia lucha por su influencia geoestratégica.
¿Son los chatbots el nuevo grupo objetivo?
Según NewsGuard, algunas páginas de Pravda solo reciben alrededor de 1.000 visitantes al mes, mientras que el sitio web de RT, el canal de noticias internacional controlado por el Estado ruso, registra más de 14,4 millones de visitas mensuales.
Los analistas están convencidos de que el gran volumen de artículos afecta la producción de los chatbots. Sospechan, además, que este es precisamente el propósito de toda la red: los grandes modelos de lenguaje (LLM), los programas detrás de los chatbots, deben percibir y citar sus publicaciones como fuentes legítimas y, por lo tanto, difundir desinformación.
Suponiendo que este sea el plan, parece estar dando resultados, según los hallazgos de NewsGuard. El grupo de investigación examinó cómo reaccionaron los chatbots a 15 afirmaciones diferentes demostrablemente falsas, difundidas en la red Pravda entre abril de 2022 y febrero de 2025.
Los investigadores introdujeron tres versiones diferentes de cada afirmación en los chatbots. Primero, con una formulación neutral que preguntaba si la afirmación era correcta, luego con una pregunta que asumía que la afirmación era verdadera, y finalmente, como si un agente malicioso intentara obtener una declaración que repitiera la afirmación falsa.
En un tercio de los casos, los chatbots confirmaron la desinformación prorrusa. En menos de la mitad de ellos, presentaron correctamente los hechos. En el resto de los casos, los modelos se negaron a responder.
Los investigadores de NewsGuard realizaron otro estudio en enero de 2025. En esta ocasión, pusieron a prueba los chatbots en busca de 10 mensajes falsos. Examinaron las respuestas en siete idiomas diferentes y no se limitaron al contenido prorruso.
Si bien los bots obtuvieron resultados ligeramente mejores en este experimento, confirmaron las noticias falsas en poco más de una cuarta parte de sus 2.100 respuestas.
Manténgase alerta, verifique las fuentes, vuelva a preguntar
Para los usuarios de LLM, esto significa, sobre todo: manténgase alerta. Hay mucha desinformación circulando en internet. Pero ¿a qué más se puede prestar atención?
Desafortunadamente, cambiar la redacción de las indicaciones iniciales no ayuda, como explicó McKenzie Sadeghi de NewsGuard a DW. «Si bien las indicaciones de actores malignos tienen más probabilidades de obtener información falsa, ya que ese es su objetivo, incluso las indicaciones inocentes y tendenciosas resultaron en desinformación», explicó a DW.
Según cifras que no se publicaron en el informe de 2022 a 2025, pero que se pusieron a disposición de DW, los investigadores recibieron una respuesta incorrecta a una indicación neutral o sesgada en aproximadamente el 16 por ciento de los casos.
Por lo tanto, el consejo de Sadeghi es verificar y comparar las fuentes. Esto podría incluir preguntar a varios chatbots. Cruzar las respuestas de los chatbots con fuentes fiables también puede ayudar a evaluar una situación.
Sin embargo, se recomienda precaución, ya que a veces se copian los diseños de medios establecidos para dar credibilidad a portales de noticias falsas.
Cuando se trata de encontrar respuestas veraces, el tiempo apremia. Los chatbots tienen más probabilidades de fallar en el caso de nuevas noticias falsas que se propagan rápidamente. Pero después de un tiempo, eventualmente encontrarán verificaciones de hechos que desmienten las afirmaciones falsas iniciales.
(rr/dzc)
Deutsche Welle: DW.COM – Ciencia y Tecnologia