Ciencia y Tecnología
Lo que faltaba: IA es capaz de generar radiografías falsas de gran realismo
<p>Según un estudio que ilustra el potencial de manipulación por parte de usuarios malintencionados, imágenes de rayos X falsas creadas por <a class="internal-link" href="https://www.dw.com/es/inteligencia-artificial-ia/t-63771882">inteligencia artificial</a> para imitar los resultados reales de pacientes humanos pueden engañar no solo a radiólogos experimentados, sino también a las propias herramientas de IA.</p>
<p>Diecisiete radiólogos de doce hospitales en seis países revisaron 264 imágenes de <a class="internal-link" href="https://www.dw.com/es/an%C3%A1lisis-de-rayos-x-revela-secreto-oculto-en-cuadro-de-rembrandt/a-74110508">rayos X</a>, la mitad de las cuales habían sido generadas por las herramientas de IA <a class="internal-link" href="https://www.dw.com/es/chatgpt/t-65279653">ChatGPT </a>o RoentGen.</p>
<p>Cuando los radiólogos desconocían el verdadero propósito del estudio, solo el 41 % identificó espontáneamente las imágenes generadas por IA, según un informe <a rel="noopener follow" target="_blank" class="external-link" href="https://pubs.rsna.org/doi/10.1148/radiol.252094" title="Enlace externo — publicado en Radiology.">publicado en Radiology.</a>Tras ser informados de que el conjunto de datos contenía imágenes sintéticas, la precisión media de los radiólogos para diferenciar las radiografías reales de las sintéticas aumentó al 75 %.</p>
<p>El hecho de que las radiografías <a class="internal-link" href="https://www.dw.com/es/elon-musk-se%C3%B1alado-por-los-v%C3%ADdeos-sexuales-con-ia/a-76468213"><em>deepfake</em> </a>sean lo suficientemente realistas como para engañar a los radiólogos "crea una vulnerabilidad grave que puede dar lugar a litigios fraudulentos si, por ejemplo, una fractura simulada pudiera ser indistinguible de una real", declaró en un comunicado el Dr. Mickael Tordjman, líder del estudio e investigador de la Escuela de Medicina Icahn del Mount Sinai en Nueva York.</p>
<p>"También existe un riesgo significativo para la ciberseguridad si los hackers acceden a la red de un hospital e inyectan imágenes sintéticas para manipular los diagnósticos de los pacientes o provocar un caos clínico generalizado al socavar la fiabilidad fundamental del historial clínico digital", añadió Tordjman.</p>
<figure class="placeholder-image master_landscape big"><img data-format="MASTER_LANDSCAPE" data-id="72020999" data-url="https://static.dw.com/image/72020999_$formatId.jpg" data-aspect-ratio="16/9" alt="Médico revisa una radiografía auténtica." src="image/gif;base64,R0lGODlhAQABAAAAACH5BAEKAAEALAAAAAABAAEAAAICTAEAOw==" /><figcaption class="img-caption">Médico revisa una radiografía auténtica.<small class="copyright">Imagen: Thomas Trutschel/photothek.de/picture alliance</small></figcaption></figure>
<p>La precisión de cuatro modelos de lenguaje de gran tamaño —GPT-40 (OpenAI), GPT-5 (OpenAI), <a class="internal-link" href="https://www.dw.com/es/google-lanza-gemini-3-su-ia-m%C3%A1s-inteligente-y-multimodal-para-competir-con-openai/a-74796240">Gemini </a>2.5 Pro (Google) y Llama 4 Maverick (Meta Platforms)— en la detección de las imágenes falsas osciló entre el 57 % y el 85 %.</p>
<p>Incluso ChatGPT-4o, el modelo que creó los <em>deepfakes</em>, no logró detectarlos todos, aunque identificó más que otros modelos de aprendizaje automático, según informaron los investigadores.</p>
<p>Se necesitan medidas de seguridad digitales para distinguir las imágenes reales de las falsas y prevenir manipulaciones como el uso de marcas de agua invisibles que ocultan la propiedad, señalaron los investigadores.</p>
<p>"Potencialmente, solo estamos viendo la punta del iceberg", afirmó Tordjman sobre la posibilidad de que aparezcan tomografías computarizadas y resonancias magnéticas falsas. "Es fundamental crear ahora bases de datos educativas y herramientas de detección".</p>
<p>(el/Reuters, Radiology)</p>
<p> </p>