Connect with us

Ciencia y Tecnología

Te apetece ir a Sri Lanka porque lo viste en Instagram. El problema es que quien te lo recomendó era una IA

Published

on

Te apetece ir a Sri Lanka porque lo viste en Instagram. El problema es que quien te lo recomendó era una IA

La imagen es familiar. Una joven sonríe desde una playa de aguas turquesas. En la siguiente publicación, aparece paseando por una calle empedrada de Marrakech. Más abajo, posa en un hotel de lujo en Maldivas. La piel es perfecta, el cuerpo responde a los cánones imperantes y el texto acompaña con frases inspiracionales sobre viajar, descubrir culturas y “vivir el momento”.

Nada parece fuera de lugar. Hasta que descubres la realidad. Esa viajera no ha volado, no ha caminado esas calles ni ha probado la comida que recomienda. No existe. Es una influencer generada por inteligencia artificial y forma parte de un fenómeno que crece sin hacer ruido: la normalización de perfiles artificiales que influyen en decisiones reales de millones de personas.

Un auge silencioso, pero masivo. En los últimos dos años, Instagram y otras redes sociales se han llenado de influencers virtuales: personajes creados con IA generativa que simulan ser personas reales y publican contenido de viajes, lifestyle o moda, el caso más conocido en España es Aitana López. Algunos lo indican de forma más o menos clara en su biografía; otros lo hacen de manera ambigua o casi invisible. No obstante, aquí lo interesante es como los ejemplos se multiplican en el sector turístico. Sena Z ha sido presentada como “la primera influencer de viajes y hotelería creada con IA”, es una colaboración entre el grupo de lujo Cenizaro Hotels & Resorts y la firma tecnológica Bracai. Sena publica recomendaciones culturales, mensajes sobre sostenibilidad y fotografías desde destinos exóticos. 

Otro caso destacado es Emma, la influencer y chatbot oficial de la Oficina Nacional Alemana de Turismo. Emma no solo publica contenido en Instagram, sino que responde preguntas en más de 20 idiomas desde la web oficial del organismo. Según explicaron desde la entidad al Washington Post, su creación forma parte de una estrategia para “mantenerse a la vanguardia de la innovación digital”. A estos perfiles se suman otros como Radhika, Emily Pellegrini, o avatares corporativos como Sama, la azafata virtual de Qatar Airways que aparece tanto en la web de la aerolínea como en redes sociales, publicando como si viviera experiencias reales.

No se trata de experimentos aislados. Como detalla The New York Times, aerolíneas, oficinas de turismo y marcas están recurriendo cada vez más a estos avatares porque son más baratos, más rápidos y completamente controlables. Un influencer de IA no enferma, no se cansa, no envejece y no genera controversias personales.

Influencers sin experiencia. La pregunta es inevitable: ¿qué ocurre cuando la experiencia no es real? Basta con recorrer estos perfiles para comprobarlo: recomiendan destinos, restaurantes y culturas que no han vivido. Aun así, generan engagement, acumulan miles de likes y comentarios, y condicionan decisiones de viaje.

Desde el punto de vista de las marcas, el atractivo es evidente. Según datos recogidos por el medio neoyorquino, crear un avatar avanzado puede costar entre 5.000 y 15.000 dólares, frente a campañas tradicionales que superan fácilmente las seis cifras. Además, el contenido puede producirse sin desplazamientos, sin equipos de rodaje y sin negociar con talento humano. Sin embargo, para los creadores reales, el impacto ya se deja notar. Influencers humanos citados por el mismo medio explican que las marcas están reduciendo pagos, eliminando extras y ofreciendo colaboraciones menos ventajosas. La IA se convierte así en una nueva competencia directa dentro de la economía creadora, un sector valorado en más de 200.000 millones de dólares a nivel global.

¿Alguien lo está regulando? Mientras la tecnología avanza rápido, la regulación intenta alcanzarla. Tirando para casa, en Europa, la respuesta más clara llega a través del Reglamento de Inteligencia Artificial (AI Act). El Artículo 50, que entrará en vigor en agosto de 2026, establece obligaciones de transparencia para proveedores y usuarios de sistemas de IA. Entre ellas:

  • Informar cuando una persona interactúa con un sistema de IA.
  • Marcar en formato detectable los contenidos generados o manipulados por IA (texto, imagen, audio o vídeo).
  • Obligar a declarar los deepfakes y los textos generados por IA que informen sobre asuntos de interés público, salvo que exista revisión editorial humana.

La Comisión Europea ya ha iniciado la elaboración de un Código de Buenas Prácticas para el marcado y etiquetado de contenido generado por IA, con la participación de expertos, plataformas y sociedad civil. El objetivo es facilitar el cumplimiento antes de que la ley sea plenamente aplicable. Sin embargo, muchos perfiles virtuales no indican claramente ni su naturaleza artificial ni sus vínculos comerciales, dejando al usuario en un terreno de ambigüedad.

Cuerpos irreales, autoridad algorítmica. Más allá de la promoción de destinos, la mayoría de influencers de IA comparten rasgos comunes: juventud eterna, cuerpos delgados, piel perfecta y ausencia total de imperfecciones. Este fenómeno coincide con el regreso de la estética Y2K y la extrema delgadez en redes sociales, una tendencia que han vinculado con un retroceso en la diversidad corporal.

El caso más notorio fue a raíz de campañas publicitarias con modelos generadas por IA, como el de Guess en Vogue. Expertas en salud mental advirtieron de que la exposición constante a cuerpos irreales puede agravar problemas de autoestima y aumentar el riesgo de trastornos alimentarios. La diferencia, señalan, es clave: mientras el retoque tradicional partía de un cuerpo real, la IA crea cuerpos que nunca han existido, imposibles de alcanzar incluso en teoría.

Esta lógica se ha llevado al extremo con fenómenos como el certamen Miss IA, donde modelos generadas artificialmente compiten mostrando cuerpos sin poros, sin edad y sin historia. Según cirujanos plásticos, cada vez llegan más pacientes a consulta con imágenes creadas por IA pidiendo intervenciones imposibles y señalan el riesgo de frustración, obsesión y daño psicológico.

El problema de fondo: ya no sabemos qué es real. Todo esto ocurre en un contexto más amplio: una crisis de confianza visual. Como ha analizado mi compañero en Xataka, la generación masiva de imágenes hiperrealistas ha roto una cadena que durante siglos parecía sólida: si algo se veía, probablemente había existido. Hoy, esa presunción ha desaparecido. Ver ya no equivale a saber.

En este nuevo escenario, no solo dudamos de si una influencer ha viajado de verdad, sino de si la imagen misma corresponde a algo que ocurrió. La consecuencia es una sospecha permanente que afecta a la memoria, a la atención y a la forma en que nos relacionamos con la realidad digital. La solución técnica —sellos, metadatos, certificaciones— apenas empieza a dibujarse, mientras la adaptación cultural va muy por detrás.

Un solo movimiento. Al final, todo vuelve al gesto inicial: deslizar el dedo por la pantalla. Las playas siguen siendo reales. Las ciudades existen. Los viajes ocurren. Pero quienes los cuentan, cada vez más, no han estado allí.

En un ecosistema digital saturado de imágenes perfectas, la pregunta ya no es si veremos más influencers generados por inteligencia artificial, sino si sabremos —y podremos exigir— distinguirlos. Porque en Instagram, la inspiración sigue vendiéndose como auténtica, aunque detrás ya no haya nadie que haya hecho la maleta.

Imagen | Instagram

Xataka | No sabríamos decirte si la imagen que encabeza este post es real o generada por IA: estamos en la era de la duda permanente


La noticia

Te apetece ir a Sri Lanka porque lo viste en Instagram. El problema es que quien te lo recomendó era una IA

fue publicada originalmente en

Xataka

por
Alba Otero

.

​La imagen es familiar. Una joven sonríe desde una playa de aguas turquesas. En la siguiente publicación, aparece paseando por una calle empedrada de Marrakech. Más abajo, posa en un hotel de lujo en Maldivas. La piel es perfecta, el cuerpo responde a los cánones imperantes y el texto acompaña con frases inspiracionales sobre viajar, descubrir culturas y “vivir el momento”.
Nada parece fuera de lugar. Hasta que descubres la realidad. Esa viajera no ha volado, no ha caminado esas calles ni ha probado la comida que recomienda. No existe. Es una influencer generada por inteligencia artificial y forma parte de un fenómeno que crece sin hacer ruido: la normalización de perfiles artificiales que influyen en decisiones reales de millones de personas.
Un auge silencioso, pero masivo. En los últimos dos años, Instagram y otras redes sociales se han llenado de influencers virtuales: personajes creados con IA generativa que simulan ser personas reales y publican contenido de viajes, lifestyle o moda, el caso más conocido en España es Aitana López. Algunos lo indican de forma más o menos clara en su biografía; otros lo hacen de manera ambigua o casi invisible. No obstante, aquí lo interesante es como los ejemplos se multiplican en el sector turístico. Sena Z ha sido presentada como “la primera influencer de viajes y hotelería creada con IA”, es una colaboración entre el grupo de lujo Cenizaro Hotels & Resorts y la firma tecnológica Bracai. Sena publica recomendaciones culturales, mensajes sobre sostenibilidad y fotografías desde destinos exóticos. 
Otro caso destacado es Emma, la influencer y chatbot oficial de la Oficina Nacional Alemana de Turismo. Emma no solo publica contenido en Instagram, sino que responde preguntas en más de 20 idiomas desde la web oficial del organismo. Según explicaron desde la entidad al Washington Post, su creación forma parte de una estrategia para “mantenerse a la vanguardia de la innovación digital”. A estos perfiles se suman otros como Radhika, Emily Pellegrini, o avatares corporativos como Sama, la azafata virtual de Qatar Airways que aparece tanto en la web de la aerolínea como en redes sociales, publicando como si viviera experiencias reales.
No se trata de experimentos aislados. Como detalla The New York Times, aerolíneas, oficinas de turismo y marcas están recurriendo cada vez más a estos avatares porque son más baratos, más rápidos y completamente controlables. Un influencer de IA no enferma, no se cansa, no envejece y no genera controversias personales.

En Xataka

OpenAI sabe que necesita seguir generando memes y virales. Por eso está dispuesta a pagar mucho dinero a Disney por su contenido

Influencers sin experiencia. La pregunta es inevitable: ¿qué ocurre cuando la experiencia no es real? Basta con recorrer estos perfiles para comprobarlo: recomiendan destinos, restaurantes y culturas que no han vivido. Aun así, generan engagement, acumulan miles de likes y comentarios, y condicionan decisiones de viaje.
Desde el punto de vista de las marcas, el atractivo es evidente. Según datos recogidos por el medio neoyorquino, crear un avatar avanzado puede costar entre 5.000 y 15.000 dólares, frente a campañas tradicionales que superan fácilmente las seis cifras. Además, el contenido puede producirse sin desplazamientos, sin equipos de rodaje y sin negociar con talento humano. Sin embargo, para los creadores reales, el impacto ya se deja notar. Influencers humanos citados por el mismo medio explican que las marcas están reduciendo pagos, eliminando extras y ofreciendo colaboraciones menos ventajosas. La IA se convierte así en una nueva competencia directa dentro de la economía creadora, un sector valorado en más de 200.000 millones de dólares a nivel global.
¿Alguien lo está regulando? Mientras la tecnología avanza rápido, la regulación intenta alcanzarla. Tirando para casa, en Europa, la respuesta más clara llega a través del Reglamento de Inteligencia Artificial (AI Act). El Artículo 50, que entrará en vigor en agosto de 2026, establece obligaciones de transparencia para proveedores y usuarios de sistemas de IA. Entre ellas:
Informar cuando una persona interactúa con un sistema de IA.Marcar en formato detectable los contenidos generados o manipulados por IA (texto, imagen, audio o vídeo).Obligar a declarar los deepfakes y los textos generados por IA que informen sobre asuntos de interés público, salvo que exista revisión editorial humana.
La Comisión Europea ya ha iniciado la elaboración de un Código de Buenas Prácticas para el marcado y etiquetado de contenido generado por IA, con la participación de expertos, plataformas y sociedad civil. El objetivo es facilitar el cumplimiento antes de que la ley sea plenamente aplicable. Sin embargo, muchos perfiles virtuales no indican claramente ni su naturaleza artificial ni sus vínculos comerciales, dejando al usuario en un terreno de ambigüedad.
Cuerpos irreales, autoridad algorítmica. Más allá de la promoción de destinos, la mayoría de influencers de IA comparten rasgos comunes: juventud eterna, cuerpos delgados, piel perfecta y ausencia total de imperfecciones. Este fenómeno coincide con el regreso de la estética Y2K y la extrema delgadez en redes sociales, una tendencia que han vinculado con un retroceso en la diversidad corporal.
El caso más notorio fue a raíz de campañas publicitarias con modelos generadas por IA, como el de Guess en Vogue. Expertas en salud mental advirtieron de que la exposición constante a cuerpos irreales puede agravar problemas de autoestima y aumentar el riesgo de trastornos alimentarios. La diferencia, señalan, es clave: mientras el retoque tradicional partía de un cuerpo real, la IA crea cuerpos que nunca han existido, imposibles de alcanzar incluso en teoría.
Esta lógica se ha llevado al extremo con fenómenos como el certamen Miss IA, donde modelos generadas artificialmente compiten mostrando cuerpos sin poros, sin edad y sin historia. Según cirujanos plásticos, cada vez llegan más pacientes a consulta con imágenes creadas por IA pidiendo intervenciones imposibles y señalan el riesgo de frustración, obsesión y daño psicológico.
El problema de fondo: ya no sabemos qué es real. Todo esto ocurre en un contexto más amplio: una crisis de confianza visual. Como ha analizado mi compañero en Xataka, la generación masiva de imágenes hiperrealistas ha roto una cadena que durante siglos parecía sólida: si algo se veía, probablemente había existido. Hoy, esa presunción ha desaparecido. Ver ya no equivale a saber.
En este nuevo escenario, no solo dudamos de si una influencer ha viajado de verdad, sino de si la imagen misma corresponde a algo que ocurrió. La consecuencia es una sospecha permanente que afecta a la memoria, a la atención y a la forma en que nos relacionamos con la realidad digital. La solución técnica —sellos, metadatos, certificaciones— apenas empieza a dibujarse, mientras la adaptación cultural va muy por detrás.

Un solo movimiento. Al final, todo vuelve al gesto inicial: deslizar el dedo por la pantalla. Las playas siguen siendo reales. Las ciudades existen. Los viajes ocurren. Pero quienes los cuentan, cada vez más, no han estado allí.
En un ecosistema digital saturado de imágenes perfectas, la pregunta ya no es si veremos más influencers generados por inteligencia artificial, sino si sabremos —y podremos exigir— distinguirlos. Porque en Instagram, la inspiración sigue vendiéndose como auténtica, aunque detrás ya no haya nadie que haya hecho la maleta.
Imagen | Instagram
Xataka | No sabríamos decirte si la imagen que encabeza este post es real o generada por IA: estamos en la era de la duda permanente

– La noticia

Te apetece ir a Sri Lanka porque lo viste en Instagram. El problema es que quien te lo recomendó era una IA

fue publicada originalmente en

Xataka

por
Alba Otero

.   

​   

​ 

Continue Reading
Click to comment

Leave a Reply

Your email address will not be published. Required fields are marked *