Ciencia y Tecnología
La nevada de Kamchatka generada por IA simboliza algo preocupante: ya no podemos fiarnos de ninguna imagen en internet
<p>
 <img src="https://i.blogs.es/2b6a77/ai-nieve/1024_2000.jpeg" alt="La nevada de Kamchatka generada por IA simboliza algo preocupante: ya no podemos fiarnos de ninguna imagen en internet">
 </p>
<p>En 2012 el huracán Sandy asoló el Mar Caribe y llegó a alcanzar la costa de Nueva York. Allí dejó inundaciones, cortes del suministro eléctrico y fotos espectaculares. De todas ellas <a class="text-outboundlink" href="https://www.xataka.com/xataka/la-tormenta-imperfecta-imagen-de-la-semana" data-vars-post-title="La tormenta imperfecta. Imagen de la semana" data-vars-post-url="https://www.xataka.com/xataka/la-tormenta-imperfecta-imagen-de-la-semana">hubo una especialmente asombrosa</a> que se convirtió en viral, pero había un problema: <strong>era falsa</strong>. <a rel="noopener, noreferrer" href="https://www.cnet.com/pictures/hoax-sandy-photos-flooding-social-media-pictures/">No fue la única</a> que se coló en redes.</p>
<p><!-- BREAK 1 --></p>
<p>Aquella imagen fue tan solo un ejemplo más de lo que antes y después hemos ido viendo: los grandes fenómenos y sucesos acaban generando riadas de contenidos, algunos de los cuales no son reales. </p>
<p><!-- BREAK 2 --></p>
<div class="article-asset article-asset-normal article-asset-center">
<div class="desvio-container">
<div class="desvio">
<div class="desvio-figure js-desvio-figure">
 <a href="https://www.xataka.com/robotica-e-ia/imagenes-han-dejado-significar-que-algo-era-real-bienvenidos-a-era-duda-visual-permanente" class="pivot-outboundlink" data-vars-post-title="No sabríamos decirte si la imagen que encabeza este post es real o generada por IA: estamos en la era de la duda permanente"><br />
 <img alt="No sabríamos decirte si la imagen que encabeza este post es real o generada por IA: estamos en la era de la duda permanente" width="375" height="142" src="https://i.blogs.es/9af92d/imagen/375_142.jpeg"><br />
 </a>
 </div>
<div class="desvio-summary">
<div class="desvio-taxonomy js-desvio-taxonomy">
 <a href="https://www.xataka.com/robotica-e-ia/imagenes-han-dejado-significar-que-algo-era-real-bienvenidos-a-era-duda-visual-permanente" class="desvio-taxonomy-anchor pivot-outboundlink" data-vars-post-title="No sabríamos decirte si la imagen que encabeza este post es real o generada por IA: estamos en la era de la duda permanente">En Xataka</a>
 </div>
<p> <a href="https://www.xataka.com/robotica-e-ia/imagenes-han-dejado-significar-que-algo-era-real-bienvenidos-a-era-duda-visual-permanente" class="desvio-title js-desvio-title pivot-outboundlink" data-vars-post-title="No sabríamos decirte si la imagen que encabeza este post es real o generada por IA: estamos en la era de la duda permanente">No sabríamos decirte si la imagen que encabeza este post es real o generada por IA: estamos en la era de la duda permanente</a>
 </div>
</p></div>
</p></div>
</div>
<p>Hay muchas razones por las que la gente <a class="text-outboundlink" href="https://www.xataka.com/robotica-e-ia/hemos-intentado-utilizar-ia-para-verificar-imagenes-guerra-iran-e-israel-estaban-hechas-ia-ha-sido-desastre" data-vars-post-title="Hemos intentado utilizar la IA para verificar si las imágenes de la guerra entre Irán e Israel estaban hechas con IA. Ha sido un desastre" data-vars-post-url="https://www.xataka.com/robotica-e-ia/hemos-intentado-utilizar-ia-para-verificar-imagenes-guerra-iran-e-israel-estaban-hechas-ia-ha-sido-desastre">aprovecha estos momentos</a> para difundir imágenes falsas, pero al menos antes lograr imágenes y vídeos creíbles era costoso. Solo los usuarios avanzados de aplicaciones como Photoshop o Final Cut / Premiere podían lograr resultados convincentes, pero la IA, como sabemos, ha cambiado todo eso.</p>
<p><!-- BREAK 3 --></p>
<p>Llevamos alertando de este problema desde hace tiempo: distinguir entre lo real y lo generado por IA <a class="text-outboundlink" href="https://www.xataka.com/robotica-e-ia/veo-3-estamos-viendo-riesgo-emergente-no-podremos-saber-video-real-no" data-vars-post-title="Hasta ahora no tenías motivos para pensar que un vídeo cualquiera de internet fuera falso. Veo 3 ha puesto fin a esa ilusión" data-vars-post-url="https://www.xataka.com/robotica-e-ia/veo-3-estamos-viendo-riesgo-emergente-no-podremos-saber-video-real-no">es cada vez más difícil</a>. y estos días hemos tenido el último gran ejemplo de esta tendencia. </p>
<p><!-- BREAK 4 --></p>
<h2>Anatomía de un deepfake</h2>
<p>En la península de Kamchatka, en el extremo oriental de Rusia, se ha vivido un temporal de nieve histórico. El peor en décadas, según los registros, con niveles de nieve que superan los dos metros en diversas áreas, <a rel="noopener, noreferrer" href="https://english.news.cn/europe/20260119/4cfc9850996046f590aab8d04312fa4b/c.html">según Xinhua</a>. </p>
<p>Petropávlovsk-Kamchatski, centro administrativo, industrial, y científico del Krai de Kamchatka, ha sufrido especialmente esas consecuencias, y vecinos de la región han difundido en redes imágenes del que ya <a rel="noopener, noreferrer" href="https://timesofindia.indiatimes.com/etimes/trending/snow-apocalypse-hits-russia-viral-video-shows-snow-swallowing-high-rises-in-kamchatka/articleshow/126674996.cms">ha sido bautizado</a> como el &#8220;apocalipsis de la nieve&#8221;. Esas imágenes difundidas <a rel="noopener, noreferrer" href="https://english.news.cn/europe/20260119/4cfc9850996046f590aab8d04312fa4b/c.html">en medios de noticias</a> y redes sociales y que eran reales —a menudo más &#8220;mundanas&#8221; y <a rel="noopener, noreferrer" href="https://www.reuters.com/business/environment/record-snow-fall-russian-far-east-sows-fun-frustration-massive-drifts-2026-01-19/">mucho menos espectaculares</a>— contrastan con otras que teóricamente también mostraban el estado de varios puntos de la región pero que en realidad están generadas con IA. </p>
<p><!-- BREAK 5 --></p>
<div class="article-asset-image article-asset-normal article-asset-center">
<div class="asset-content">
 <a rel="noopener, noreferrer" href="https://x.com/LinusEkenstam/status/2012321095303520581"></p>
<p> <img alt="Captura De Pantalla 2026 01 19 A Las 16 00 01" class="centro_sinmarco" src="https://i.blogs.es/7b6d8a/captura-de-pantalla-2026-01-19-a-las-16.00.01/450_1000.jpeg"><br />
 </a></p></div>
</div>
<div class="article-asset-image article-asset-normal article-asset-center">
<div class="asset-content">
 <a rel="noopener, noreferrer" href="https://x.com/KorlDa/status/2013201339031884011"></p>
<p> <img alt="Captura De Pantalla 2026 01 19 A Las 16 00 41" class="centro_sinmarco" src="https://i.blogs.es/93d06b/captura-de-pantalla-2026-01-19-a-las-16.00.41/450_1000.jpeg"><br />
 </a></p></div>
</div>
<p>Ese vídeo, por ejemplo, <a rel="noopener, noreferrer" href="https://x.com/LinusEkenstam/status/2012321095303520581">era compartido</a> hace unos días por Linus Ekenstam, influencer que a menudo comparte noticias y reflexiones sobre IA. Él republicaba ese vídeo y afirmaba que era real, pero pronto varios usuarios indicaban que en realidad el vídeo estaba creado por IA. </p>
<p><!-- BREAK 6 --></p>
<p>Ekenstam argumentaba que el teórico error de la IA que señalaba en el usuario no era tal, y que en donde él vive hay postes cerca de las farolas. Trataba por tanto de defender que para él el vídeo era real, pero otros apuntaban a que no lo era. La prueba definitiva: <a rel="noopener, noreferrer" href="https://x.com/volcaholic1/status/2012565819092328696">un usuario enlazaba al teórico vídeo original</a>, que al parecer se originó en <a rel="noopener, noreferrer" href="https://www.tiktok.com/@cupcake.vids0">una cuenta de TikTok</a> dedicada precisamente a difundir contenidos generados por IA que parecen reales.</p>
<p><!-- BREAK 7 --></p>
<div class="article-asset-image article-asset-normal article-asset-center">
<div class="asset-content">
 <a rel="noopener, noreferrer" href="https://www.tiktok.com/@cupcake.vids0"></p>
<p> <img alt="Captura De Pantalla 2026 01 19 A Las 16 04 21" class="centro_sinmarco" src="https://i.blogs.es/f014f3/captura-de-pantalla-2026-01-19-a-las-16.04.21/450_1000.jpeg"><br />
 </a></p></div>
</div>
<p>Lo crucial de ese vídeo falso es que es espectacular, pero no exageradamente espectacular. Es, hasta cierto punto, creíble, y cuando la imagen y el propio movimiento de la cámara es tan convincente, cuesta pensar que &#8220;quizas esté generado por IA&#8221;. </p>
<p><!-- BREAK 8 --></p>
<p>Con este temporal de nieve vivido en Kamchatka se han compartido en redes imágenes insólitas, <strong>mucho más propias de una película distópica de Hollywood</strong> que de un fenómeno natural real. A priori las imágenes pueden resultar hasta coherentes, pero un examen más detallado —y sobre todo, más crítico—, facilita que nos demos cuenta de que quizás esas imágenes no sean tan reales como parecen.</p>
<p><!-- BREAK 9 --></p>
<div class="article-asset-image article-asset-normal article-asset-center">
<div class="asset-content">
 <a rel="noopener, noreferrer" href="https://x.com/TempBastard/status/2012796940665139545"></p>
<p> <img alt="Captura De Pantalla 2026 01 19 A Las 16 07 58" class="centro_sinmarco" src="https://i.blogs.es/e6bae4/captura-de-pantalla-2026-01-19-a-las-16.07.58/450_1000.jpeg"><br />
 </a></p></div>
</div>
<p>De hecho, las imágenes más llamativas compartidas en redes sociales y que acumulan miles de retuits y de likes en X, por ejemplo, contrastan con las que se publican en medios tradicionales, que suelen ser como decíamos <a rel="noopener, noreferrer" href="https://timesofindia.indiatimes.com/etimes/trending/snow-apocalypse-hits-russia-viral-video-shows-snow-swallowing-high-rises-in-kamchatka/articleshow/126674996.cms">mucho menos llamativas</a> y <a rel="noopener, noreferrer" href="https://english.news.cn/europe/20260119/4cfc9850996046f590aab8d04312fa4b/c.html">mucho más mundanas</a>.</p>
<p><!-- BREAK 10 --></p>
<p>Medios españoles como <a rel="noopener, noreferrer" href="https://www.ondacero.es/noticias/mundo/video-historica-nevada-que-sepultado-nieve-peninsula-kamchatka_20260118696d01c3be7ae37724cd70a0.html">OndaCero</a> u <a rel="noopener, noreferrer" href="https://x.com/okdiario/status/2012586393608900952">OKDiario</a> han publicado en sus medios digitales o en sus cuentas en redes sociales algunas imágenes y vídeos generados por IA sin darse cuenta de que efectivamente esos vídeos tenían su origen en la <a rel="noopener, noreferrer" href="https://www.tiktok.com/@cupcake.vids0">citada cuenta de TikTok</a> que ha logrado que se difundieran como la pólvora.</p>
<p><!-- BREAK 11 --></p>
<div class="article-asset-image article-asset-normal article-asset-center">
<div class="asset-content">
 <a rel="noopener, noreferrer" href="https://x.com/okdiario/status/2012586393608900952"></p>
<p> <img alt="Captura De Pantalla 2026 01 19 A Las 16 31 50" class="centro_sinmarco" src="https://i.blogs.es/ae0cd0/captura-de-pantalla-2026-01-19-a-las-16.31.50/450_1000.jpeg"><br />
 </a></p></div>
</div>
<p>Los debates sobre la posibilidad de que ciertas imágenes pudieran ser reales han sido frecuentes <a rel="noopener, noreferrer" href="https://www.reddit.com/r/ANormalDayInRussia/comments/1qele6y/comment/o05ybma/?utm_source=share&;utm_medium=mweb3x&;utm_name=mweb3xcss&;utm_term=1">por ejemplo en Reddit</a>, donde los usuarios compartían por ejemplo <a rel="noopener, noreferrer" href="https://www.reddit.com/r/interestingasfuck/comments/1qh5agx/aftermath_of_a_snowstorm_in_kamchatka_ru_snow/">una asombrosa captura</a> que analizada en detalle parecía generada por IA.</p>
<p><!-- BREAK 12 --></p>
<div class="article-asset-image article-asset-normal article-asset-center">
<div class="asset-content">
 <a rel="noopener, noreferrer" href="https://www.reddit.com/r/interestingasfuck/comments/1qh5agx/aftermath_of_a_snowstorm_in_kamchatka_ru_snow/"></p>
<p> <img alt="Captura De Pantalla 2026 01 19 A Las 16 37 43" class="centro_sinmarco" src="https://i.blogs.es/a731e5/captura-de-pantalla-2026-01-19-a-las-16.37.43/450_1000.jpeg"><br />
 </a></p></div>
</div>
<p>La avalancha de &#8220;periodismo ciudadano&#8221;, que puede ser bienintencionada y muy importante en ocasiones, contrasta aquí con el papel de los medios, que tienen la responsabilidad enorme a la hora de actuar como fuentes de información de confianza. </p>
<p><!-- BREAK 13 --></p>
<p>Hasta ellos (y nosotros) pueden caer en la trampa, y aquí una vez más <strong>lo mejor es comenzar a desconfiar de lo que vemos</strong> en nuestras pantallas, porque puede ser un contenido falso. Los vídeos aparecidos en algunos medios como <a rel="noopener, noreferrer" href="https://news.sky.com/video/vehicles-buried-in-more-than-seven-feet-of-snow-in-russias-kamchatka-peninsula-13495968">Sky News</a> o en <a rel="noopener, noreferrer" href="https://www.lavanguardia.com/internacional/20260116/11440742/vdd-kamchatka-rusia-sepultada-nieve-tormentas-record.html">La Vanguardia</a> se combinan <a rel="noopener, noreferrer" href="https://www.instagram.com/reels/DTo5AmUCCJr/">con otros</a> que a (al menos, a priori) parecen reales, pero que a estas alturas también exigen un examen riguroso.</p>
<p><!-- BREAK 14 --></p>
<h2>Nuestro cerebro nos traiciona y la tecnología lo sabe</h2>
<p>Hay varios fenómenos psicológicos y sesgos cognitivos bien estudiados que explican por qué creíamos en el pasado en las fake news y ahora nos vuelve a pasar lo mismo con los deepfakes. </p>
<div class="article-asset-video article-asset-normal">
<div class="asset-content">
<div class="base-asset-video">
<div class="js-dailymotion"></div>
</p></div>
</p></div>
</div>
<p>Da igual que sepamos (o al menos sospechemos) racionalmente que esas imágenes y vídeos sean falsos: la tecnología y sobre todo la IA precisamente explotan esos sesgos. Entre ellos destacan los siguientes:</p>
<p><!-- BREAK 15 --></p>
<ol>
<li value="1"><strong>Sesgo de confirmación</strong>: creemos lo que encaja con lo que ya creemos. Nuestro cerebro no buscan tanto la verdad como la coherencia interna, así que si una noticia refuerza nuestra ideología, bajamos el nivel de las potenciales críticas, pero si la contradice, la analizamos con lupa o directamente la descartamos. Aquí el problema es que la IA puede generar contenidos hechos a medida y ajustados a cada narrativa. </li>
<li value="2"><strong>Efecto de verdad ilusoria</strong>: aquí sucede que &#8220;si lo he visto muchas veces, será verdad&#8221;. La repetición aumenta la sensación de veracidad, no la veracidad real, y es algo que por ejemplo aprovechan al máximo las redes sociales, máquinas de repetir bulos. De nuevo la IA facilita la producción masiva de la misma mentira con variaciones mínimas.</li>
<li value="3"><strong>Creemos lo que vemos</strong>: es lo que algunos llaman realismo perceptivo. Confiamos demasiado en lo visual, y de ahí el célebre dicho de &#8220;una imagen vale más que mil palabras&#8221;. Las imágenes se procesan mucho más rápido que el exto, y el pensamiento crítico llega después de la reacción emocional, <a class="text-outboundlink" href="https://www.xataka.com/literatura-comics-y-juegos/lecciones-productividad-que-aprendi-kahneman-toma-decisiones-pensamiento-a-dos-velocidades" data-vars-post-title="Las lecciones de productividad que aprendí de Kahneman: toma de decisiones y pensamiento a dos velocidades" data-vars-post-url="https://www.xataka.com/literatura-comics-y-juegos/lecciones-productividad-que-aprendi-kahneman-toma-decisiones-pensamiento-a-dos-velocidades">como bien argumentó</a> Daniel Kanheman <a class="text-outboundlink" href="https://www.xatakaciencia.com/psicologia/libros-que-nos-inspiran-pensar-rapido-pensar-despacio-de-daniel-kahneman" data-vars-post-title="Libros que nos inspiran: ‘Pensar rápido, pensar despacio’ de Daniel Kahneman" data-vars-post-url="https://www.xatakaciencia.com/psicologia/libros-que-nos-inspiran-pensar-rapido-pensar-despacio-de-daniel-kahneman"><strong>en su célebre</strong></a> &#8216;Pensar rápido, pensar despacio&#8217;. </li>
<li value="4"><strong>Carga cognitiva</strong>: relacionado con lo anterior, pensar de forma crítica cansa, y eso hace que cuando estamos cansados, distraídos o con prisa usemos atajos mentales. <a class="text-outboundlink" href="https://www.xataka.com/medicina-y-salud/compulsion-que-miramos-movil-no-sorprendente-llevamos-programada-cerebro" data-vars-post-title="La psicología del doomscrolling: la trampa en la que nuestro cerebro está programado para caer una y otra vez" data-vars-post-url="https://www.xataka.com/medicina-y-salud/compulsion-que-miramos-movil-no-sorprendente-llevamos-programada-cerebro">El célebre y preocupante doomscrolling</a> aprovecha muy bien esa trampa, y tanto las fake news como los deepfakes están diseñados para ser fáciles de creer, no para ser analizados.</li>
</ol>
<p>Hay más, por supuesto. La IA genera ya resultados convincentes pero además —sobre todo en texto— su seguridad a la hora de comunicarlos y expresarlos activa un sesgo de autoridad. Es como si pareciera más fiable que si nos lo dijera un experto humano que por lo que sea no tiene tanta facilidad para comunicar sus conocimientos con destreza. </p>
<p><!-- BREAK 16 --></p>
<div class="article-asset article-asset-normal article-asset-center">
<div class="desvio-container">
<div class="desvio">
<div class="desvio-figure js-desvio-figure">
 <a href="https://www.xataka.com/robotica-e-ia/no-sabes-que-tu-instagram-se-ha-llenado-orcas-tiburones-respuesta-simple-video-falso-hecho-ia" class="pivot-outboundlink" data-vars-post-title="Internet busca sin cesar vídeos de gente atacada por tiburones y orcas. La clave está en el morbo... creado por IA"><br />
 <img alt="Internet busca sin cesar vídeos de gente atacada por tiburones y orcas. La clave está en el morbo... creado por IA" width="375" height="142" src="https://i.blogs.es/276f3c/ps---plantilla-portadas-xtk/375_142.jpeg"><br />
 </a>
 </div>
<div class="desvio-summary">
<div class="desvio-taxonomy js-desvio-taxonomy">
 <a href="https://www.xataka.com/robotica-e-ia/no-sabes-que-tu-instagram-se-ha-llenado-orcas-tiburones-respuesta-simple-video-falso-hecho-ia" class="desvio-taxonomy-anchor pivot-outboundlink" data-vars-post-title="Internet busca sin cesar vídeos de gente atacada por tiburones y orcas. La clave está en el morbo... creado por IA">En Xataka</a>
 </div>
<p> <a href="https://www.xataka.com/robotica-e-ia/no-sabes-que-tu-instagram-se-ha-llenado-orcas-tiburones-respuesta-simple-video-falso-hecho-ia" class="desvio-title js-desvio-title pivot-outboundlink" data-vars-post-title="Internet busca sin cesar vídeos de gente atacada por tiburones y orcas. La clave está en el morbo... creado por IA">Internet busca sin cesar vídeos de gente atacada por tiburones y orcas. La clave está en el morbo&#8230; creado por IA</a>
 </div>
</p></div>
</p></div>
</div>
<p>Los contenidos generados con IA también aprovechan esos grandes fenómenos y sucesos que maximizan el impacto emocional, y además está el hecho de que cuando mucha gente lo comparte es porque &#8220;debe ser cierto&#8221; y porque solemos creer que son los demas los que caen en estos engaños, no nosotros. </p>
<p><!-- BREAK 17 --></p>
<p>Como decía aquel, <a rel="noopener, noreferrer" href="https://www.youtube.com/watch?v=MJDQewSMB-E&;t=38s">tengan cuidado ahí fuera</a>.</p>
<p>En Xataka | <a class="text-outboundlink" href="https://www.xataka.com/robotica-e-ia/ultimo-deepfake-stranger-things-alucinante-que-demuestra-que-realidad-empieza-a-ser-opcional" data-vars-post-title="Es imposible distinguir si este vídeo con los actores de 'Stranger Things' está hecho con IA o no. Eso es un problema" data-vars-post-url="https://www.xataka.com/robotica-e-ia/ultimo-deepfake-stranger-things-alucinante-que-demuestra-que-realidad-empieza-a-ser-opcional">Es imposible distinguir si este vídeo con los actores de &#8216;Stranger Things&#8217; está hecho con IA o no. Eso es un problema</a></p>
<p> &#8211; <br /> La noticia<br />
 <a href="https://www.xataka.com/robotica-e-ia/nevada-kamtchatka-ultima-senal-alerta-quien-podremos-fiarnos-nueva-era-internet?utm_source=feedburner&;utm_medium=feed&;utm_campaign=19_Jan_2026"><br />
 <em> La nevada de Kamchatka generada por IA simboliza algo preocupante: ya no podemos fiarnos de ninguna imagen en internet </em><br />
 </a><br />
 fue publicada originalmente en<br />
 <a href="https://www.xataka.com/?utm_source=feedburner&;utm_medium=feed&;utm_campaign=19_Jan_2026"><br />
 <strong> Xataka </strong><br />
 </a><br />
 por <a href="https://www.xataka.com/autor/javier-pastor?utm_source=feedburner&;utm_medium=feed&;utm_campaign=19_Jan_2026"><br />
 Javier Pastor<br />
 </a><br />
 . </p>
<p>​En 2012 el huracán Sandy asoló el Mar Caribe y llegó a alcanzar la costa de Nueva York. Allí dejó inundaciones, cortes del suministro eléctrico y fotos espectaculares. De todas ellas hubo una especialmente asombrosa que se convirtió en viral, pero había un problema: era falsa. No fue la única que se coló en redes.</p>
<p>Aquella imagen fue tan solo un ejemplo más de lo que antes y después hemos ido viendo: los grandes fenómenos y sucesos acaban generando riadas de contenidos, algunos de los cuales no son reales. </p>
<p> En Xataka</p>
<p> No sabríamos decirte si la imagen que encabeza este post es real o generada por IA: estamos en la era de la duda permanente</p>
<p>Hay muchas razones por las que la gente aprovecha estos momentos para difundir imágenes falsas, pero al menos antes lograr imágenes y vídeos creíbles era costoso. Solo los usuarios avanzados de aplicaciones como Photoshop o Final Cut / Premiere podían lograr resultados convincentes, pero la IA, como sabemos, ha cambiado todo eso.</p>
<p>Llevamos alertando de este problema desde hace tiempo: distinguir entre lo real y lo generado por IA es cada vez más difícil. y estos días hemos tenido el último gran ejemplo de esta tendencia. </p>
<p>Anatomía de un deepfakeEn la península de Kamchatka, en el extremo oriental de Rusia, se ha vivido un temporal de nieve histórico. El peor en décadas, según los registros, con niveles de nieve que superan los dos metros en diversas áreas, según Xinhua. </p>
<p>Petropávlovsk-Kamchatski, centro administrativo, industrial, y científico del Krai de Kamchatka, ha sufrido especialmente esas consecuencias, y vecinos de la región han difundido en redes imágenes del que ya ha sido bautizado como el &#8220;apocalipsis de la nieve&#8221;. Esas imágenes difundidas en medios de noticias y redes sociales y que eran reales —a menudo más &#8220;mundanas&#8221; y mucho menos espectaculares— contrastan con otras que teóricamente también mostraban el estado de varios puntos de la región pero que en realidad están generadas con IA. </p>
<p>Ese vídeo, por ejemplo, era compartido hace unos días por Linus Ekenstam, influencer que a menudo comparte noticias y reflexiones sobre IA. Él republicaba ese vídeo y afirmaba que era real, pero pronto varios usuarios indicaban que en realidad el vídeo estaba creado por IA. </p>
<p>Ekenstam argumentaba que el teórico error de la IA que señalaba en el usuario no era tal, y que en donde él vive hay postes cerca de las farolas. Trataba por tanto de defender que para él el vídeo era real, pero otros apuntaban a que no lo era. La prueba definitiva: un usuario enlazaba al teórico vídeo original, que al parecer se originó en una cuenta de TikTok dedicada precisamente a difundir contenidos generados por IA que parecen reales.</p>
<p>Lo crucial de ese vídeo falso es que es espectacular, pero no exageradamente espectacular. Es, hasta cierto punto, creíble, y cuando la imagen y el propio movimiento de la cámara es tan convincente, cuesta pensar que &#8220;quizas esté generado por IA&#8221;. </p>
<p>Con este temporal de nieve vivido en Kamchatka se han compartido en redes imágenes insólitas, mucho más propias de una película distópica de Hollywood que de un fenómeno natural real. A priori las imágenes pueden resultar hasta coherentes, pero un examen más detallado —y sobre todo, más crítico—, facilita que nos demos cuenta de que quizás esas imágenes no sean tan reales como parecen.</p>
<p>De hecho, las imágenes más llamativas compartidas en redes sociales y que acumulan miles de retuits y de likes en X, por ejemplo, contrastan con las que se publican en medios tradicionales, que suelen ser como decíamos mucho menos llamativas y mucho más mundanas.</p>
<p>Medios españoles como OndaCero u OKDiario han publicado en sus medios digitales o en sus cuentas en redes sociales algunas imágenes y vídeos generados por IA sin darse cuenta de que efectivamente esos vídeos tenían su origen en la citada cuenta de TikTok que ha logrado que se difundieran como la pólvora.</p>
<p>Los debates sobre la posibilidad de que ciertas imágenes pudieran ser reales han sido frecuentes por ejemplo en Reddit, donde los usuarios compartían por ejemplo una asombrosa captura que analizada en detalle parecía generada por IA.</p>
<p>La avalancha de &#8220;periodismo ciudadano&#8221;, que puede ser bienintencionada y muy importante en ocasiones, contrasta aquí con el papel de los medios, que tienen la responsabilidad enorme a la hora de actuar como fuentes de información de confianza. </p>
<p>Hasta ellos (y nosotros) pueden caer en la trampa, y aquí una vez más lo mejor es comenzar a desconfiar de lo que vemos en nuestras pantallas, porque puede ser un contenido falso. Los vídeos aparecidos en algunos medios como Sky News o en La Vanguardia se combinan con otros que a (al menos, a priori) parecen reales, pero que a estas alturas también exigen un examen riguroso.</p>
<p>Nuestro cerebro nos traiciona y la tecnología lo sabeHay varios fenómenos psicológicos y sesgos cognitivos bien estudiados que explican por qué creíamos en el pasado en las fake news y ahora nos vuelve a pasar lo mismo con los deepfakes. </p>
<p>Da igual que sepamos (o al menos sospechemos) racionalmente que esas imágenes y vídeos sean falsos: la tecnología y sobre todo la IA precisamente explotan esos sesgos. Entre ellos destacan los siguientes:<br />
Sesgo de confirmación: creemos lo que encaja con lo que ya creemos. Nuestro cerebro no buscan tanto la verdad como la coherencia interna, así que si una noticia refuerza nuestra ideología, bajamos el nivel de las potenciales críticas, pero si la contradice, la analizamos con lupa o directamente la descartamos. Aquí el problema es que la IA puede generar contenidos hechos a medida y ajustados a cada narrativa. Efecto de verdad ilusoria: aquí sucede que &#8220;si lo he visto muchas veces, será verdad&#8221;. La repetición aumenta la sensación de veracidad, no la veracidad real, y es algo que por ejemplo aprovechan al máximo las redes sociales, máquinas de repetir bulos. De nuevo la IA facilita la producción masiva de la misma mentira con variaciones mínimas.Creemos lo que vemos: es lo que algunos llaman realismo perceptivo. Confiamos demasiado en lo visual, y de ahí el célebre dicho de &#8220;una imagen vale más que mil palabras&#8221;. Las imágenes se procesan mucho más rápido que el exto, y el pensamiento crítico llega después de la reacción emocional, como bien argumentó Daniel Kanheman en su célebre &#8216;Pensar rápido, pensar despacio&#8217;. Carga cognitiva: relacionado con lo anterior, pensar de forma crítica cansa, y eso hace que cuando estamos cansados, distraídos o con prisa usemos atajos mentales. El célebre y preocupante doomscrolling aprovecha muy bien esa trampa, y tanto las fake news como los deepfakes están diseñados para ser fáciles de creer, no para ser analizados.<br />
Hay más, por supuesto. La IA genera ya resultados convincentes pero además —sobre todo en texto— su seguridad a la hora de comunicarlos y expresarlos activa un sesgo de autoridad. Es como si pareciera más fiable que si nos lo dijera un experto humano que por lo que sea no tiene tanta facilidad para comunicar sus conocimientos con destreza. </p>
<p> En Xataka</p>
<p> Internet busca sin cesar vídeos de gente atacada por tiburones y orcas. La clave está en el morbo&#8230; creado por IA</p>
<p>Los contenidos generados con IA también aprovechan esos grandes fenómenos y sucesos que maximizan el impacto emocional, y además está el hecho de que cuando mucha gente lo comparte es porque &#8220;debe ser cierto&#8221; y porque solemos creer que son los demas los que caen en estos engaños, no nosotros. </p>
<p>Como decía aquel, tengan cuidado ahí fuera.</p>
<p>En Xataka | Es imposible distinguir si este vídeo con los actores de &#8216;Stranger Things&#8217; está hecho con IA o no. Eso es un problema</p>
<p> &#8211; La noticia</p>
<p> La nevada de Kamchatka generada por IA simboliza algo preocupante: ya no podemos fiarnos de ninguna imagen en internet </p>
<p> fue publicada originalmente en</p>
<p> Xataka </p>
<p> por<br />
 Javier Pastor</p>
<p> . </p>
<p>​ </p>
<p>​ </p>