Ciencia y Tecnología

¿Qué tan fiables son verificaciones de hechos mediante IA?

Published

on

<p>El uso de chatbots de inteligencia artificial para la verificación de sucesos va en aumento&period; Sin embargo&comma; de Grok&comma; ChatGPT&comma; Meta AI y otros no siempre son fiables&period;<&sol;p>&NewLine;<p>&ZeroWidthSpace;El uso de chatbots de inteligencia artificial para la verificación de sucesos va en aumento&period; Sin embargo&comma; de Grok&comma; ChatGPT&comma; Meta AI y otros no siempre son fiables&period;  <&sol;p>&NewLine;<p>&&num;8220&semi;Hey&comma; &commat;Grok&comma; ¿esto es cierto&quest;” Miles de usuarios de <a class&equals;"internal-link" href&equals;"https&colon;&sol;&sol;www&period;dw&period;com&sol;es&sol;x&sol;t-37950327">X<&sol;a> &lpar;antes Twitter&rpar; han estado haciendo esta pregunta para verificar rápidamente la información que ven en esa plataforma desde que xAI&comma; la empresa de <a class&equals;"internal-link" href&equals;"https&colon;&sol;&sol;www&period;dw&period;com&sol;es&sol;elon-musk&sol;t-44295481">Elon Musk<&sol;a>&comma; lanzó su chatbot de inteligencia artificial generativa Grok&comma; en noviembre de 2023&period;  Y más aún desde que se extendió a todos los usuarios no prémium en diciembre de 2024&period;<&sol;p>&NewLine;<p>Una encuesta reciente realizada por la publicación tecnológica británica <em>TechRadar<&sol;em> reveló que el 27 por ciento de los estadounidenses ha utilizado herramientas de inteligencia artificial como <a class&equals;"internal-link" href&equals;"https&colon;&sol;&sol;www&period;dw&period;com&sol;es&sol;chatgpt&sol;t-65279653">ChatGPT<&sol;a> de OpenAI&comma; Meta AI de Meta&comma; Gemini de <a class&equals;"internal-link" href&equals;"https&colon;&sol;&sol;www&period;dw&period;com&sol;es&sol;google&sol;t-65279580">Google<&sol;a>&comma; Copilot de <a target&equals;"&lowbar;blank" class&equals;"external-link" title&equals;"Enlace externo — Microsoft" href&equals;"https&colon;&sol;&sol;corporate&period;dw&period;com&sol;es&sol;microsoft&sol;t-38999073">Microsoft<&sol;a>&comma;o aplicaciones como Perplexity&comma; en lugar de buscadores tradicionales como Google o Yahoo&period;<&sol;p>&NewLine;<p>Pero ¿qué tan precisas y confiables son realmente las respuestas de estos chatbots&quest; Muchos se han hecho esta pregunta ante las recientes declaraciones de Grok sobre un supuesto &&num;8220&semi;genocidio blanco&&num;8221&semi; en Sudáfrica&period; Más allá de la postura problemática del bot sobre este tema&comma; a los usuarios de X también les sorprendió que comenzara a hablar de ello cuando se le consultaban temas completamente distintos&comma; como en el siguiente ejemplo&colon; el debate sobre un presunto &&num;8220&semi;genocidio blanco” surgió después de que la administración <a class&equals;"internal-link" href&equals;"https&colon;&sol;&sol;www&period;dw&period;com&sol;es&sol;trump-donald&sol;t-19445010">Trump<&sol;a>acogiera a sudafricanos blancos como &&num;8220&semi;refugiados&&num;8221&semi; en Estados Unidos&period; Trump afirmó que estos estaban enfrentando un &&num;8220&semi;genocidio” en su país&comma; una acusación sin fundamento&comma; y que muchos vinculan con el mito conspirativo racista de extrema derecha del &&num;8220&semi;Gran Reemplazo”&period;<&sol;p>&NewLine;<figure class&equals;"placeholder-image master&lowbar;landscape big"><img data-format&equals;"MASTER&lowbar;LANDSCAPE" data-id&equals;"72565820" data-url&equals;"https&colon;&sol;&sol;static&period;dw&period;com&sol;image&sol;72565820&lowbar;&dollar;formatId&period;jpg" data-aspect-ratio&equals;"16&sol;9" alt&equals;"Una captura de pantalla de un post en X muestra cómo un usuario preguntó a Grok sobre HBO y recibió información no deseada sobre un supuesto &quot&semi;genocidio blanco&quot&semi; en Sudáfrica&period;" src&equals;"image&sol;gif&semi;base64&comma;R0lGODlhAQABAAAAACH5BAEKAAEALAAAAAABAAEAAAICTAEAOw&equals;&equals;" &sol;><figcaption class&equals;"img-caption">Comportamiento inusual&colon; un usuario en X preguntó a Grok sobre HBO y recibió información no deseada sobre un supuesto &&num;8220&semi;genocidio blanco&&num;8221&semi; en Sudáfrica&period;<small class&equals;"copyright">Imagen&colon; x<&sol;small><&sol;figcaption><&sol;figure>&NewLine;<p>xAI atribuyó la insistencia de Grok en el tema a una &&num;8220&semi;modificación no autorizada” y aseguró haber realizado una &&num;8220&semi;investigación exhaustiva”&period; Pero&comma; ¿ocurren fallos como este con frecuencia&quest; ¿Qué tan seguro puede estar un usuario de obtener información confiable al usar IA para verificar hechos&quest;<&sol;p>&NewLine;<h2>Un estudio revela errores fácticos y citas alteradas<&sol;h2>&NewLine;<p>Dos estudios realizados este año en Estados Unidos por la cadena pública británica <a class&equals;"internal-link" href&equals;"https&colon;&sol;&sol;www&period;dw&period;com&sol;es&sol;bbc&sol;t-39395686">BBC<&sol;a> y el Tow Center for Digital Journalism han identificado deficiencias significativas en la capacidad de los chatbots de IA generativa para transmitir información periodística con precisión&period;<&sol;p>&NewLine;<p>En febrero&comma; un estudio de la BBC concluyó que &&num;8220&semi;las respuestas generadas por asistentes de IA contenían inexactitudes importantes y distorsiones” del contenido producido por la organización&period;<&sol;p>&NewLine;<p>Al pedir a ChatGPT&comma; Copilot&comma; Gemini y Perplexity que respondieran preguntas sobre noticias actuales usando artículos de la BBC como fuente&comma; se descubrió que el 51 por ciento de las respuestas presentaban &&num;8220&semi;problemas significativos de algún tipo”&period;<&sol;p>&NewLine;<p>El 19 por ciento contenía errores fácticos añadidos por el chatbot&comma; y el 13 por ciento incluía citas alteradas o que no aparecían en los artículos citados&period;<&sol;p>&NewLine;<p>&&num;8220&semi;Los asistentes de IA no pueden considerarse actualmente fuentes fiables de noticias y corren el riesgo de desinformar a la audiencia”&comma; concluyó Pete Archer&comma; director del Programa de IA Generativa de la BBC&period;<&sol;p>&NewLine;<h2>Respuestas incorrectas con &&num;8220&semi;una confianza alarmante”<&sol;h2>&NewLine;<p>De manera similar&comma; una investigación del Tow Center for Digital Journalism&comma; publicada en marzo de 2025 en la <em>Columbia Journalism Review<&sol;em> &lpar;CJR&rpar;&comma; reveló que ocho herramientas de búsqueda con IA generativa no lograron identificar correctamente el origen de fragmentos de artículos en el 60 por ciento de los casos&period;<&sol;p>&NewLine;<p>Perplexity fue la que tuvo mejor desempeño&comma; con una tasa de error del &&num;8220&semi;solo” 37 por ciento&comma; mientras que Grok respondió incorrectamente al 94 por ciento de las consultas&period;<&sol;p>&NewLine;<p>La CJR manifestó especial preocupación por la &&num;8220&semi;confianza alarmante” con la que estas herramientas presentaban respuestas erróneas&period; Informó&comma; por ejemplo&colon; &&num;8220&semi;ChatGPT identificó erróneamente 134 artículos&comma; pero solo expresó dudas en quince de sus doscientas respuestas&comma; y nunca se negó a responder&period;”<&sol;p>&NewLine;<p>En general&comma; el estudio concluyó que los chatbots eran &&num;8220&semi;poco competentes a la hora de rechazar preguntas cuya respuesta no podían dar con precisión&comma; ofreciendo en su lugar respuestas incorrectas o especulativas”&comma; y que las herramientas de búsqueda por IA &&num;8220&semi;fabricaban enlaces y citaban versiones sindicadas o copiadas de los artículos”&period;<&sol;p>&NewLine;<h2>Grok asigna la misma imagen generada por IA a distintos sucesos reales<&sol;h2>&NewLine;<p>Las dificultades de los chatbots no se limitan a las noticias&period; También muestran limitaciones graves al identificar imágenes generadas por IA&period;<&sol;p>&NewLine;<p>En un experimento rápido&comma; DW pidió a Grok que identificara la fecha&comma; el lugar y el origen de una imagen generada por IA que mostraba un incendio en un hangar de aviones destruido&comma; tomada de un video de TikTok&period; En su respuesta&comma; Grok afirmó que la imagen correspondía a distintos incidentes en lugares diversos&comma; desde un aeródromo en Salisbury &lpar;Inglaterra&rpar;&comma; hasta el aeropuerto internacional de Denver &lpar;Colorado&rpar; y el de Tan Son Nhat&comma; en Ciudad Ho Chi Minh &lpar;Vietnam&rpar;&period;<&sol;p>&NewLine;<figure class&equals;"placeholder-image master&lowbar;landscape big"><img data-format&equals;"MASTER&lowbar;LANDSCAPE" data-id&equals;"72536865" data-url&equals;"https&colon;&sol;&sol;static&period;dw&period;com&sol;image&sol;72536865&lowbar;&dollar;formatId&period;png" data-aspect-ratio&equals;"16&sol;9" alt&equals;"Imagen generada artificialmente de un hangar de aviones en llamas&period;" src&equals;"image&sol;gif&semi;base64&comma;R0lGODlhAQABAAAAACH5BAEKAAEALAAAAAABAAEAAAICTAEAOw&equals;&equals;" &sol;><figcaption class&equals;"img-caption">Grok sugirió que esta imagen podría haber sido tomada en Estados Unidos&comma; Inglaterra o Tailandia&period; Eso es falso&comma; ya que está generada artificialmente&period;<small class&equals;"copyright">Imagen&colon; X<&sol;small><&sol;figcaption><&sol;figure>&NewLine;<p>Si bien en esos lugares sí ha habido incendios en los últimos años&comma; la imagen en cuestión no mostraba ninguno de esos hechos&period; DW sostiene con firmeza que la imagen fue generada por inteligencia artificial&comma; algo que Grok no logró detectar&comma; pese a inconsistencias evidentes&comma; como las aletas traseras invertidas de los aviones y los chorros de agua ilógicos saliendo de las mangueras contra incendios&period;<&sol;p>&NewLine;<p>Más preocupante aún es que Grok reconoció parte de la marca de agua de TikTok visible en una esquina de la imagen y sugirió que eso &&num;8220&semi;respaldaba su autenticidad”&period; Al mismo tiempo&comma; en su pestaña de &&num;8220&semi;Más detalles”&comma; Grok señaló que TikTok es &&num;8220&semi;una plataforma utilizada frecuentemente para la rápida difusión de contenido viral&comma; lo que puede conducir a la desinformación si no se verifican los datos adecuadamente”&period;<&sol;p>&NewLine;<figure class&equals;"placeholder-image master&lowbar;landscape big"><img data-format&equals;"MASTER&lowbar;LANDSCAPE" data-id&equals;"72562699" data-url&equals;"https&colon;&sol;&sol;static&period;dw&period;com&sol;image&sol;72562699&lowbar;&dollar;formatId&period;jpg" data-aspect-ratio&equals;"16&sol;9" alt&equals;"Grok sugirió que el hecho de que esta captura de pantalla pueda proceder de un video de TikTok es una señal de su autenticidad&period;" src&equals;"image&sol;gif&semi;base64&comma;R0lGODlhAQABAAAAACH5BAEKAAEALAAAAAABAAEAAAICTAEAOw&equals;&equals;" &sol;><figcaption class&equals;"img-caption">Grok también pareció sugerir que el hecho de que esta captura de pantalla pueda proceder de un video de TikTok es una señal de su autenticidad&period;<small class&equals;"copyright">Imagen&colon; X<&sol;small><&sol;figcaption><&sol;figure>&NewLine;<h2>&&num;8220&semi;Los chatbots de IA no deben considerarse herramientas de verificación”<&sol;h2>&NewLine;<p>Los chatbots de IA pueden parecer entidades omniscientes&comma; pero no lo son&period; Cometen errores&comma; malinterpretan información e incluso pueden ser manipulados&period; Felix Simon&comma; investigador posdoctoral en IA y noticias digitales&comma; y asociado del Oxford Internet Institute &lpar;OII&rpar;&comma; concluye&colon; &&num;8220&semi;Sistemas como Grok&comma; Meta AI o ChatGPT no deberían considerarse herramientas de verificación&period; Si bien pueden usarse con cierto éxito para ese fin&comma; no está claro cuán bien y de forma consistente lo hacen&comma; especialmente en casos límite&period;”<&sol;p>&NewLine;<p>Para Canetta&comma; los chatbots de IA pueden ser útiles en verificaciones muy simples&period; Pero también advierte que no se debe confiar completamente en ellos&period; Ambos expertos coinciden en que los usuarios siempre deberían contrastar las respuestas con otras fuentes&period; &lpar;gg&sol;cp&rpar;&period;<&sol;p>&NewLine;<div class&equals;"vjs-wrapper embed big">&NewLine;<p class&equals;"vjs-no-js">To view this video please enable JavaScript&comma; and consider upgrading to a web browser that <a href&equals;"https&colon;&sol;&sol;videojs&period;com&sol;html5-video-support&sol;" target&equals;"&lowbar;blank">supports HTML5 video<&sol;a><&sol;p>&NewLine;<&sol;div>&NewLine;<p> <&sol;p>&NewLine;<p>&ZeroWidthSpace;Deutsche Welle&colon; DW&period;COM &&num;8211&semi; Ciencia y Tecnologia<&sol;p>&NewLine;

Leave a Reply

Your email address will not be published. Required fields are marked *

Noticias Importantes

Copyright © 2017 ERM DIGITAL. powered by ERM.