Ciencia y Tecnología

Lo que faltaba: IA es capaz de generar radiografías falsas de gran realismo

Published

on

<p>Según un estudio que ilustra el potencial de manipulación por parte de usuarios malintencionados&comma; imágenes de rayos X falsas creadas por <a class&equals;"internal-link" href&equals;"https&colon;&sol;&sol;www&period;dw&period;com&sol;es&sol;inteligencia-artificial-ia&sol;t-63771882">inteligencia artificial<&sol;a> para imitar los resultados reales de pacientes humanos pueden engañar no solo a radiólogos experimentados&comma; sino también a las propias herramientas de IA&period;<&sol;p>&NewLine;<p>Diecisiete radiólogos de doce hospitales en seis países revisaron 264 imágenes de <a class&equals;"internal-link" href&equals;"https&colon;&sol;&sol;www&period;dw&period;com&sol;es&sol;an&percnt;C3&percnt;A1lisis-de-rayos-x-revela-secreto-oculto-en-cuadro-de-rembrandt&sol;a-74110508">rayos X<&sol;a>&comma; la mitad de las cuales habían sido generadas por las herramientas de IA <a class&equals;"internal-link" href&equals;"https&colon;&sol;&sol;www&period;dw&period;com&sol;es&sol;chatgpt&sol;t-65279653">ChatGPT <&sol;a>o RoentGen&period;<&sol;p>&NewLine;<p>Cuando los radiólogos desconocían el verdadero propósito del estudio&comma; solo el 41 &percnt; identificó espontáneamente las imágenes generadas por IA&comma; según un informe <a rel&equals;"noopener follow" target&equals;"&lowbar;blank" class&equals;"external-link" href&equals;"https&colon;&sol;&sol;pubs&period;rsna&period;org&sol;doi&sol;10&period;1148&sol;radiol&period;252094" title&equals;"Enlace externo — publicado en Radiology&period;">publicado en Radiology&period;<&sol;a>Tras ser informados de que el conjunto de datos contenía imágenes sintéticas&comma; la precisión media de los radiólogos para diferenciar las radiografías reales de las sintéticas aumentó al 75 &percnt;&period;<&sol;p>&NewLine;<p>El hecho de que las radiografías <a class&equals;"internal-link" href&equals;"https&colon;&sol;&sol;www&period;dw&period;com&sol;es&sol;elon-musk-se&percnt;C3&percnt;B1alado-por-los-v&percnt;C3&percnt;ADdeos-sexuales-con-ia&sol;a-76468213"><em>deepfake<&sol;em> <&sol;a>sean lo suficientemente realistas como para engañar a los radiólogos "crea una vulnerabilidad grave que puede dar lugar a litigios fraudulentos si&comma; por ejemplo&comma; una fractura simulada pudiera ser indistinguible de una real"&comma; declaró en un comunicado el Dr&period; Mickael Tordjman&comma; líder del estudio e investigador de la Escuela de Medicina Icahn del Mount Sinai en Nueva York&period;<&sol;p>&NewLine;<p>"También existe un riesgo significativo para la ciberseguridad si los hackers acceden a la red de un hospital e inyectan imágenes sintéticas para manipular los diagnósticos de los pacientes o provocar un caos clínico generalizado al socavar la fiabilidad fundamental del historial clínico digital"&comma; añadió Tordjman&period;<&sol;p>&NewLine;<figure class&equals;"placeholder-image master&lowbar;landscape big"><img data-format&equals;"MASTER&lowbar;LANDSCAPE" data-id&equals;"72020999" data-url&equals;"https&colon;&sol;&sol;static&period;dw&period;com&sol;image&sol;72020999&lowbar;&dollar;formatId&period;jpg" data-aspect-ratio&equals;"16&sol;9" alt&equals;"Médico revisa una radiografía auténtica&period;" src&equals;"image&sol;gif&semi;base64&comma;R0lGODlhAQABAAAAACH5BAEKAAEALAAAAAABAAEAAAICTAEAOw&equals;&equals;" &sol;><figcaption class&equals;"img-caption">Médico revisa una radiografía auténtica&period;<small class&equals;"copyright">Imagen&colon; Thomas Trutschel&sol;photothek&period;de&sol;picture alliance<&sol;small><&sol;figcaption><&sol;figure>&NewLine;<p>La precisión de cuatro modelos de lenguaje de gran tamaño —GPT-40 &lpar;OpenAI&rpar;&comma; GPT-5 &lpar;OpenAI&rpar;&comma; <a class&equals;"internal-link" href&equals;"https&colon;&sol;&sol;www&period;dw&period;com&sol;es&sol;google-lanza-gemini-3-su-ia-m&percnt;C3&percnt;A1s-inteligente-y-multimodal-para-competir-con-openai&sol;a-74796240">Gemini <&sol;a>2&period;5 Pro &lpar;Google&rpar; y Llama 4 Maverick &lpar;Meta Platforms&rpar;— en la detección de las imágenes falsas osciló entre el 57 &percnt; y el 85 &percnt;&period;<&sol;p>&NewLine;<p>Incluso ChatGPT-4o&comma; el modelo que creó los <em>deepfakes<&sol;em>&comma; no logró detectarlos todos&comma; aunque identificó más que otros modelos de aprendizaje automático&comma; según informaron los investigadores&period;<&sol;p>&NewLine;<p>Se necesitan medidas de seguridad digitales para distinguir las imágenes reales de las falsas y prevenir manipulaciones como el uso de marcas de agua invisibles que ocultan la propiedad&comma; señalaron los investigadores&period;<&sol;p>&NewLine;<p>"Potencialmente&comma; solo estamos viendo la punta del iceberg"&comma; afirmó Tordjman sobre la posibilidad de que aparezcan tomografías computarizadas y resonancias magnéticas falsas&period; "Es fundamental crear ahora bases de datos educativas y herramientas de detección"&period;<&sol;p>&NewLine;<p>&lpar;el&sol;Reuters&comma; Radiology&rpar;<&sol;p>&NewLine;<p> <&sol;p>&NewLine;

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Trending

Copyright 2025 ERM Digital. Todos los derechos reservados.