Ciencia y Tecnología
Lo que faltaba: IA es capaz de generar radiografías falsas de gran realismo
Según un estudio que ilustra el potencial de manipulación por parte de usuarios malintencionados, imágenes de rayos X falsas creadas por inteligencia artificial para imitar los resultados reales de pacientes humanos pueden engañar no solo a radiólogos experimentados, sino también a las propias herramientas de IA.
Diecisiete radiólogos de doce hospitales en seis países revisaron 264 imágenes de rayos X, la mitad de las cuales habían sido generadas por las herramientas de IA ChatGPT o RoentGen.
Cuando los radiólogos desconocían el verdadero propósito del estudio, solo el 41 % identificó espontáneamente las imágenes generadas por IA, según un informe publicado en Radiology.Tras ser informados de que el conjunto de datos contenía imágenes sintéticas, la precisión media de los radiólogos para diferenciar las radiografías reales de las sintéticas aumentó al 75 %.
El hecho de que las radiografías deepfake sean lo suficientemente realistas como para engañar a los radiólogos "crea una vulnerabilidad grave que puede dar lugar a litigios fraudulentos si, por ejemplo, una fractura simulada pudiera ser indistinguible de una real", declaró en un comunicado el Dr. Mickael Tordjman, líder del estudio e investigador de la Escuela de Medicina Icahn del Mount Sinai en Nueva York.
"También existe un riesgo significativo para la ciberseguridad si los hackers acceden a la red de un hospital e inyectan imágenes sintéticas para manipular los diagnósticos de los pacientes o provocar un caos clínico generalizado al socavar la fiabilidad fundamental del historial clínico digital", añadió Tordjman.
La precisión de cuatro modelos de lenguaje de gran tamaño —GPT-40 (OpenAI), GPT-5 (OpenAI), Gemini 2.5 Pro (Google) y Llama 4 Maverick (Meta Platforms)— en la detección de las imágenes falsas osciló entre el 57 % y el 85 %.
Incluso ChatGPT-4o, el modelo que creó los deepfakes, no logró detectarlos todos, aunque identificó más que otros modelos de aprendizaje automático, según informaron los investigadores.
Se necesitan medidas de seguridad digitales para distinguir las imágenes reales de las falsas y prevenir manipulaciones como el uso de marcas de agua invisibles que ocultan la propiedad, señalaron los investigadores.
"Potencialmente, solo estamos viendo la punta del iceberg", afirmó Tordjman sobre la posibilidad de que aparezcan tomografías computarizadas y resonancias magnéticas falsas. "Es fundamental crear ahora bases de datos educativas y herramientas de detección".
(el/Reuters, Radiology)
