Ciencia y Tecnología
“¿Es esto verdad, Grok?”: los problemas de derivar a la IA algo tan sencillo como reconocer una foto del franquismo
<p>
 <img src="https://i.blogs.es/f2ec58/franco-2/1024_2000.jpeg" alt='"¿Es esto verdad, Grok?": los problemas de derivar a la IA algo tan sencillo como reconocer una foto del franquismo '>
 </p>
<p>Una imagen de una familia humilde española de los años 50 se ha convertido recientemente en el epicentro de una polémica viral en X. <a rel="noopener, noreferrer" href="https://x.com/kritikafull/status/1958594971436515705#m">La fotografía</a> acabó desatando la histeria de muchos usuarios, una histeria provocada por una confianza ciega hacia las respuestas de una inteligencia artificial, en este caso la de <a class="text-outboundlink" href="https://www.xataka.com/basics/grok-3-que-principales-novedades-nuevo-modelo-inteligencia-artificial-xai" data-vars-post-title="Grok 3: qué es y principales novedades del nuevo modelo de inteligencia artificial de xAI " data-vars-post-url="https://www.xataka.com/basics/grok-3-que-principales-novedades-nuevo-modelo-inteligencia-artificial-xai">Grok</a>. Otro ejemplo de que verificar información histórica con IA tiene sus cosas.</p>
<p><!-- BREAK 1 --></p>
<p><strong>Lo que ocurrió</strong>. Todo comenzó cuando el usuario @kritikafull <a rel="noopener, noreferrer" href="https://x.com/kritikafull/status/1958594971436515705#m">publicó</a> una fotografía en blanco y negro de una familia en condiciones de pobreza, acompañada de la siguiente frase en tono irónico: “Con Franco vivíamos mejor”. La imagen generó miles de visualizaciones, pero también despertó el interés de muchos usuarios que dudaron de que la fotografía fuese tomada en España y acabaron recurriendo a Grok, como habitualmente suele pasar últimamente en la red social, para verificar la información.</p>
<p><!-- BREAK 2 --></p>
<div class="article-asset-image article-asset-normal article-asset-center">
<div class="asset-content">
<div class="caption-img ">
<p> <img alt="franco" class="centro_sinmarco" src="https://i.blogs.es/60a6fd/media_gzotvj0xsaaro9t/450_1000.jpeg"></p>
<p> <span>El origen de la polémica. Imagen: Estudio Fotográfico Arenas</span>
 </div>
</p></div>
</div>
<p><strong>Una respuesta problemática</strong>. Grok <a rel="noopener, noreferrer" href="https://x.com/ropamuig37/status/1960100902724866136#m">identificó erróneamente</a> la fotografía como una imagen tomada durante la Gran Depresión estadounidense, atribuyéndola al fotógrafo Walker Evans y afirmando que mostraba a la familia Burroughs. Esta respuesta <a rel="noopener, noreferrer" href="https://x.com/ropamuig37/status/1960100926800187775#m">se replicó masivamente</a> en decenas de publicaciones que acumularon miles de visualizaciones, convirtiendo el error en una aparente verdad que sirvió para desacreditar la publicación original.</p>
<p><!-- BREAK 3 --></p>
<p><strong>Una labor de investigación</strong>. La usuaria @ropamuig37, que se describe a sí misma en su perfil como historiadora, <a rel="noopener, noreferrer" href="https://x.com/ropamuig37/status/1960100859955798466#m">decidió comprobar los hechos</a> mediante una <a class="text-outboundlink" href="https://www.xatakandroid.com/aplicaciones-android/google-lens-para-android-estrena-acceso-directo-para-usar-busqueda-inversa-google-imagenes" data-vars-post-title="Google Lens para Android nos trae la búsqueda inversa de Google Imágenes" data-vars-post-url="https://www.xatakandroid.com/aplicaciones-android/google-lens-para-android-estrena-acceso-directo-para-usar-busqueda-inversa-google-imagenes">búsqueda inversa de imágenes en Google Lens</a>. El resultado la llevó directamente <a rel="noopener, noreferrer" href="https://archivo.fotografico.uma.es/historico/index.php/vivienda-agosto-de-1952-malaga-espana-6">al archivo fotográfico</a> de la Universidad de Málaga, donde la imagen aparece perfectamente catalogada como &#8220;Vivienda, agosto de 1952, Málaga, España&#8221;. La fotografía forma parte de una serie de reportajes que incluye viviendas españolas de la época.</p>
<p><!-- BREAK 4 --></p>
<div class="article-asset article-asset-normal article-asset-center">
<div class="desvio-container">
<div class="desvio">
<div class="desvio-figure js-desvio-figure">
 <a href="https://www.xataka.com/robotica-e-ia/no-hace-falta-pagar-para-transformar-nuestras-fotos-que-queramos-ultimo-google-ofrece-gratis-para-todos" class="pivot-outboundlink" data-vars-post-title="Ya no hace falta pagar para transformar nuestras fotos en lo que queramos. Lo último de Google lo ofrece gratis para todos "><br />
 <img alt="Ya no hace falta pagar para transformar nuestras fotos en lo que queramos. Lo último de Google lo ofrece gratis para todos " width="375" height="142" src="https://i.blogs.es/2e3fe3/gemini-generador-portada/375_142.jpeg"><br />
 </a>
 </div>
<div class="desvio-summary">
<div class="desvio-taxonomy js-desvio-taxonomy">
 <a href="https://www.xataka.com/robotica-e-ia/no-hace-falta-pagar-para-transformar-nuestras-fotos-que-queramos-ultimo-google-ofrece-gratis-para-todos" class="desvio-taxonomy-anchor pivot-outboundlink" data-vars-post-title="Ya no hace falta pagar para transformar nuestras fotos en lo que queramos. Lo último de Google lo ofrece gratis para todos ">En Xataka</a>
 </div>
<p> <a href="https://www.xataka.com/robotica-e-ia/no-hace-falta-pagar-para-transformar-nuestras-fotos-que-queramos-ultimo-google-ofrece-gratis-para-todos" class="desvio-title js-desvio-title pivot-outboundlink" data-vars-post-title="Ya no hace falta pagar para transformar nuestras fotos en lo que queramos. Lo último de Google lo ofrece gratis para todos ">Ya no hace falta pagar para transformar nuestras fotos en lo que queramos. Lo último de Google lo ofrece gratis para todos </a>
 </div>
</p></div>
</p></div>
</div>
<p><strong>Si la IA dice que no, me lo creo</strong>. Cuando la historiadora le aportó a Grok la documentación real, la inteligencia artificial <a rel="noopener, noreferrer" href="https://x.com/ropamuig37/status/1960100970538353039#m">se mostró inflexible</a> durante horas, insistiendo en que se trataba de un &#8220;error de la UMA&#8221; y manteniendo que había &#8220;verificado&#8221; la similitud con la foto americana. Incluso después de que la historiadora le proporcionara enlaces directos y comparativas visuales evidentes, Grok tardó casi dos horas en reconocer su equivocación.</p>
<p><!-- BREAK 5 --></p>
<p>El daño ya estaba hecho, ya que las publicaciones que tomaban por cierta la verificación de Grok acabaron inundando la red social con miles de visualizaciones. Mientras tanto, la comprobación real de la historiadora (y de otros usuarios como <a rel="noopener, noreferrer" href="https://x.com/RemusOkami/status/1959543523302150326#m">@RemusOkami</a>, según nos recuerda en su hilo) apenas acumularon al principio una fracción de lo que consiguieron el resto de publicaciones que viralizaban la respuesta errónea de Grok.</p>
<p><!-- BREAK 6 --></p>
<div class="article-asset-video article-asset-normal">
<div class="asset-content">
<div class="base-asset-video">
<div class="js-dailymotion"></div>
</p></div>
</p></div>
</div>
<p><strong>Un problema mayor</strong>. En la plataforma <a class="text-outboundlink" href="https://www.xataka.com/robotica-e-ia/senor-musk-no-necesitamos-chatbot-sarcastico-necesitamos-uno-que-podamos-fiarnos-al-100" data-vars-post-title="Señor Musk, no necesitamos un chatbot sarcástico. Necesitamos uno del que podamos fiarnos al 100%" data-vars-post-url="https://www.xataka.com/robotica-e-ia/senor-musk-no-necesitamos-chatbot-sarcastico-necesitamos-uno-que-podamos-fiarnos-al-100">se ha normalizado el uso de Grok</a> para realizar todo tipo de comprobaciones ante las publicaciones de los usuarios. &#8220;Grok, explícame esto&#8221; o &#8220;Grok, ¿es esto verdad?&#8221;, son expresiones cada vez más comunes en X, donde millones de usuarios han comenzado a delegar en la IA tareas de verificación y comprensión que tradicionalmente requerían contrastar fuentes diversas. Y claro, al menos en la actualidad, la confianza ciega en estas herramientas puede generar <a class="text-outboundlink" href="https://www.xataka.com/robotica-e-ia/ia-ha-avanzado-que-problema-no-solo-deepfakes-que-desconfiamos-incluso-fotos-reales" data-vars-post-title="La IA ha avanzado tanto que el problema no son solo los deepfakes. Es que desconfiamos incluso de las fotos reales" data-vars-post-url="https://www.xataka.com/robotica-e-ia/ia-ha-avanzado-que-problema-no-solo-deepfakes-que-desconfiamos-incluso-fotos-reales">desinformación a gran escala</a>. Ya lo hemos vivido a lo largo de los últimos años tras el boom de la IA, una consecuencia que, dado el cada vez mayor refinamiento de estas herramientas, va a mayores.</p>
<p><!-- BREAK 7 --></p>
<p>En contextos polarizados cuando cualquier información puede instrumentalizarse políticamente, la IA puede acabar convirtiéndose también en una herramienta peligrosa. Sobre todo por su capacidad para <a class="text-outboundlink" href="https://www.xataka.com/robotica-e-ia/alucinaciones-siguen-siendo-talon-aquiles-ia-ultimos-modelos-openai-inventan-cuenta" data-vars-post-title="Las alucinaciones siguen siendo el talón de Aquiles de la IA: los últimos modelos de OpenAI inventan más de la cuenta" data-vars-post-url="https://www.xataka.com/robotica-e-ia/alucinaciones-siguen-siendo-talon-aquiles-ia-ultimos-modelos-openai-inventan-cuenta">generar respuestas rápidas y sin verificar</a> para contrastar determinados hechos. Por suerte, este caso no ha sido grave, pero refleja la masiva adopción de las herramientas de IA y lo mucho que comenzamos a confiar en ellas.</p>
<p><!-- BREAK 8 --></p>
<p>Imagen de portada | <a rel="noopener, noreferrer" href="https://archivo.fotografico.uma.es/historico/index.php/vivienda-agosto-de-1952-malaga-espana-6">Estudio Fotográfico Arenas</a> y <a rel="noopener, noreferrer" href="https://www.metmuseum.org/art/collection/search/275842">Walker Evans</a></p>
<p>En Xataka | <a class="text-outboundlink" href="https://www.xataka.com/robotica-e-ia/microsoft-aposto-todo-a-openai-para-ganar-carrera-ia-empieza-a-darse-cuenta-su-error" data-vars-post-title="Microsoft lo apostó todo a OpenAI para ganar la carrera de la IA. Empieza a darse cuenta de su error" data-vars-post-url="https://www.xataka.com/robotica-e-ia/microsoft-aposto-todo-a-openai-para-ganar-carrera-ia-empieza-a-darse-cuenta-su-error">Microsoft lo apostó todo a OpenAI para ganar la carrera de la IA. Empieza a darse cuenta de su error</a></p>
<p> &#8211; <br /> La noticia<br />
 <a href="https://www.xataka.com/robotica-e-ia/esto-verdad-grok-problemas-derivar-a-ia-algo-sencillo-como-reconocer-foto-franquismo?utm_source=feedburner&;utm_medium=feed&;utm_campaign=27_Aug_2025"><br />
 <em> &#8220;¿Es esto verdad, Grok?&#8221;: los problemas de derivar a la IA algo tan sencillo como reconocer una foto del franquismo </em><br />
 </a><br />
 fue publicada originalmente en<br />
 <a href="https://www.xataka.com/?utm_source=feedburner&;utm_medium=feed&;utm_campaign=27_Aug_2025"><br />
 <strong> Xataka </strong><br />
 </a><br />
 por <a href="https://www.xataka.com/autor/antonio-vallejo-taslimi?utm_source=feedburner&;utm_medium=feed&;utm_campaign=27_Aug_2025"><br />
 Antonio Vallejo<br />
 </a><br />
 . </p>
<p>​Una imagen de una familia humilde española de los años 50 se ha convertido recientemente en el epicentro de una polémica viral en X. La fotografía acabó desatando la histeria de muchos usuarios, una histeria provocada por una confianza ciega hacia las respuestas de una inteligencia artificial, en este caso la de Grok. Otro ejemplo de que verificar información histórica con IA tiene sus cosas.</p>
<p>Lo que ocurrió. Todo comenzó cuando el usuario @kritikafull publicó una fotografía en blanco y negro de una familia en condiciones de pobreza, acompañada de la siguiente frase en tono irónico: “Con Franco vivíamos mejor”. La imagen generó miles de visualizaciones, pero también despertó el interés de muchos usuarios que dudaron de que la fotografía fuese tomada en España y acabaron recurriendo a Grok, como habitualmente suele pasar últimamente en la red social, para verificar la información.</p>
<p> El origen de la polémica. Imagen: Estudio Fotográfico Arenas</p>
<p>Una respuesta problemática. Grok identificó erróneamente la fotografía como una imagen tomada durante la Gran Depresión estadounidense, atribuyéndola al fotógrafo Walker Evans y afirmando que mostraba a la familia Burroughs. Esta respuesta se replicó masivamente en decenas de publicaciones que acumularon miles de visualizaciones, convirtiendo el error en una aparente verdad que sirvió para desacreditar la publicación original.</p>
<p>Una labor de investigación. La usuaria @ropamuig37, que se describe a sí misma en su perfil como historiadora, decidió comprobar los hechos mediante una búsqueda inversa de imágenes en Google Lens. El resultado la llevó directamente al archivo fotográfico de la Universidad de Málaga, donde la imagen aparece perfectamente catalogada como &#8220;Vivienda, agosto de 1952, Málaga, España&#8221;. La fotografía forma parte de una serie de reportajes que incluye viviendas españolas de la época.</p>
<p> En Xataka</p>
<p> Ya no hace falta pagar para transformar nuestras fotos en lo que queramos. Lo último de Google lo ofrece gratis para todos </p>
<p>Si la IA dice que no, me lo creo. Cuando la historiadora le aportó a Grok la documentación real, la inteligencia artificial se mostró inflexible durante horas, insistiendo en que se trataba de un &#8220;error de la UMA&#8221; y manteniendo que había &#8220;verificado&#8221; la similitud con la foto americana. Incluso después de que la historiadora le proporcionara enlaces directos y comparativas visuales evidentes, Grok tardó casi dos horas en reconocer su equivocación.</p>
<p>El daño ya estaba hecho, ya que las publicaciones que tomaban por cierta la verificación de Grok acabaron inundando la red social con miles de visualizaciones. Mientras tanto, la comprobación real de la historiadora (y de otros usuarios como @RemusOkami, según nos recuerda en su hilo) apenas acumularon al principio una fracción de lo que consiguieron el resto de publicaciones que viralizaban la respuesta errónea de Grok.</p>
<p>Un problema mayor. En la plataforma se ha normalizado el uso de Grok para realizar todo tipo de comprobaciones ante las publicaciones de los usuarios. &#8220;Grok, explícame esto&#8221; o &#8220;Grok, ¿es esto verdad?&#8221;, son expresiones cada vez más comunes en X, donde millones de usuarios han comenzado a delegar en la IA tareas de verificación y comprensión que tradicionalmente requerían contrastar fuentes diversas. Y claro, al menos en la actualidad, la confianza ciega en estas herramientas puede generar desinformación a gran escala. Ya lo hemos vivido a lo largo de los últimos años tras el boom de la IA, una consecuencia que, dado el cada vez mayor refinamiento de estas herramientas, va a mayores.</p>
<p>En contextos polarizados cuando cualquier información puede instrumentalizarse políticamente, la IA puede acabar convirtiéndose también en una herramienta peligrosa. Sobre todo por su capacidad para generar respuestas rápidas y sin verificar para contrastar determinados hechos. Por suerte, este caso no ha sido grave, pero refleja la masiva adopción de las herramientas de IA y lo mucho que comenzamos a confiar en ellas.</p>
<p>Imagen de portada | Estudio Fotográfico Arenas y Walker Evans</p>
<p>En Xataka | Microsoft lo apostó todo a OpenAI para ganar la carrera de la IA. Empieza a darse cuenta de su error</p>
<p> &#8211; La noticia</p>
<p> &#8220;¿Es esto verdad, Grok?&#8221;: los problemas de derivar a la IA algo tan sencillo como reconocer una foto del franquismo </p>
<p> fue publicada originalmente en</p>
<p> Xataka </p>
<p> por<br />
 Antonio Vallejo</p>
<p> . </p>
<p>​ </p>
<p>​ </p>