Ciencia y Tecnología
La IA hace que cada vez sea más difícil saber qué es real y qué no. Y los depredadores sexuales infantiles están tomado nota
<p>
 <img src="https://i.blogs.es/1bb7a9/aguja/1024_2000.jpeg" alt="La IA hace que cada vez sea más difícil saber qué es real y qué no. Y los depredadores sexuales infantiles están tomado nota">
 </p>
<p>La era de la inteligencia artificial está haciendo que todo vaya muy rápido muy deprisa. Empresas como Mercadona, Google o Anthropic ya apuntan que <a class="text-outboundlink" href="https://www.xataka.com/robotica-e-ia/mercadona-se-ha-deshecho-su-buscador-ha-sustituido-uno-propio-han-hecho-mes-claude-code-se-ahorran-90" data-vars-post-title="Mercadona se ha deshecho de su buscador y lo ha sustituido por uno propio. Lo han hecho en un mes con Claude Code y se ahorran un 90% " data-vars-post-url="https://www.xataka.com/robotica-e-ia/mercadona-se-ha-deshecho-su-buscador-ha-sustituido-uno-propio-han-hecho-mes-claude-code-se-ahorran-90">la gran mayoría de su código lo escribe una IA</a>, <a class="text-outboundlink" href="https://www.xataka.com/robotica-e-ia/mythos-sera-modelo-peligroso-ia-companias-estan-tomando-nota-sus-consejos-seguridad" data-vars-post-title='Anthropic cree que Mythos es "tan potente" que no pueden hacerlo público. Mozilla lo ha probado y les da la razón' data-vars-post-url="https://www.xataka.com/robotica-e-ia/mythos-sera-modelo-peligroso-ia-companias-estan-tomando-nota-sus-consejos-seguridad">Mozilla echa flores a Mythos</a> y Jensen Huang está entusiasmado con <a class="text-outboundlink" href="https://www.xataka.com/robotica-e-ia/jensen-huang-cree-que-hemos-alcanzado-que-viene-lobo-ia-perfecta-para-alimentar-a-tamagotchi" data-vars-post-title="Según Jensen Huang ya hemos llegado a la AGI: el problema es que de momento solo sirve para alimentar Tamagotchis" data-vars-post-url="https://www.xataka.com/robotica-e-ia/jensen-huang-cree-que-hemos-alcanzado-que-viene-lobo-ia-perfecta-para-alimentar-a-tamagotchi">las bondades de la IA</a> y todo lo que <a class="text-outboundlink" href="https://www.xataka.com/robotica-e-ia/me-temo-que-vamos-a-estar-ocupados-jensen-huang-discrepa-musk-ve-ia-profunda-transformacion-laboral" data-vars-post-title="“Me temo que vamos a estar más ocupados”: Jensen Huang discrepa de Musk y ve en la IA una profunda transformación laboral " data-vars-post-url="https://www.xataka.com/robotica-e-ia/me-temo-que-vamos-a-estar-ocupados-jensen-huang-discrepa-musk-ve-ia-profunda-transformacion-laboral">nos permite crear</a>. Entre esas creaciones hay de todo, como por ejemplo una enorme cantidad de material de abuso sexual infantil.</p>
<p><!-- BREAK 1 --></p>
<p>Los investigadores piden ayuda, y ya te adelanto que hay cosas que no son fáciles de asimilar.</p>
<p><strong>En corto</strong>. Este miércoles, <a rel="noopener, noreferrer" href="https://www.bloomberg.com/features/2026-ai-child-predators-law-enforcement/">Bloomberg</a> publicó un reportaje que condensa seis meses de investigación en el que se han enfocado en la rápida proliferación de material de abuso sexual infantil generado por inteligencia artificial. No es algo que extrañe si tenemos en cuenta la enorme cantidad de información falsa con la que ya hay que lidiar día a día tanto en forma de texto como en <a class="text-outboundlink" href="https://www.xataka.com/robotica-e-ia/ia-sabia-crear-imagenes-openai-dice-haber-dado-pieza-que-faltaba-nuevo-chatgpt-images-2-0" data-vars-post-title="Con ChatGPT Images 2,0, OpenAI dice haber solucionado el gran problema de los generadores de imagen: las letras" data-vars-post-url="https://www.xataka.com/robotica-e-ia/ia-sabia-crear-imagenes-openai-dice-haber-dado-pieza-que-faltaba-nuevo-chatgpt-images-2-0">imágenes cada vez más realistas</a> y <a class="text-outboundlink" href="https://www.xataka.com/robotica-e-ia/alibaba-lanzo-modelo-ia-generacion-video-24-horas-se-habia-usado-para-generar-decenas-videos-pornograficos" data-vars-post-title="Alibaba tiene nueva IA Open Source para generar vídeos. El problema es que se está usando para generar deepfakes pornográficos" data-vars-post-url="https://www.xataka.com/robotica-e-ia/alibaba-lanzo-modelo-ia-generacion-video-24-horas-se-habia-usado-para-generar-decenas-videos-pornograficos">hasta en vídeo</a>, pero sí hay un matiz importante.</p>
<p><!-- BREAK 2 --></p>
<p>Mientras en el caso de las <a class="text-outboundlink" href="https://www.xataka.com/legislacion-y-derechos/verificar-informacion-internet-tiempos-fakes-news-problema-que-facebook-google-van-a-resolver" data-vars-post-title="Verificar información de internet en tiempos de las ‘fake news’: un problema que ni Facebook ni Google van a resolver" data-vars-post-url="https://www.xataka.com/legislacion-y-derechos/verificar-informacion-internet-tiempos-fakes-news-problema-que-facebook-google-van-a-resolver"><em>fake news</em></a> es la prensa y la gente quien debe aterrizarlo con sentido común para no tragarse el bulo, perdiendo tiempo en el proceso, en el caso de este contenido generado por IA es la policía e investigadores quienes deben perder su tiempo para descartar que se trate de información veraz. Y, mientras están haciendo eso, dejan de investigar casos de abuso sexual infantil, otro tipo de maltrato o desapariciones que sí son reales.</p>
<p><!-- BREAK 3 --></p>
<div class="article-asset article-asset-normal article-asset-center">
<div class="desvio-container">
<div class="desvio">
<div class="desvio-figure js-desvio-figure">
 <a href="https://www.xataka.com/robotica-e-ia/gafas-meta-pueden-grabar-todo-que-vemos-alguien-kenia-esta-viendo" class="pivot-outboundlink" data-vars-post-title="Las Ray-Ban Meta graban cuando te las quitas. Y contratistas en Kenia ven a sus usuarios desnudos sin que se enteren"><br />
 <img alt="Las Ray-Ban Meta graban cuando te las quitas. Y contratistas en Kenia ven a sus usuarios desnudos sin que se enteren" width="375" height="142" src="https://i.blogs.es/3cf7e7/meta/375_142.jpeg"><br />
 </a>
 </div>
<div class="desvio-summary">
<div class="desvio-taxonomy js-desvio-taxonomy">
 <a href="https://www.xataka.com/robotica-e-ia/gafas-meta-pueden-grabar-todo-que-vemos-alguien-kenia-esta-viendo" class="desvio-taxonomy-anchor pivot-outboundlink" data-vars-post-title="Las Ray-Ban Meta graban cuando te las quitas. Y contratistas en Kenia ven a sus usuarios desnudos sin que se enteren">En Xataka</a>
 </div>
<p> <a href="https://www.xataka.com/robotica-e-ia/gafas-meta-pueden-grabar-todo-que-vemos-alguien-kenia-esta-viendo" class="desvio-title js-desvio-title pivot-outboundlink" data-vars-post-title="Las Ray-Ban Meta graban cuando te las quitas. Y contratistas en Kenia ven a sus usuarios desnudos sin que se enteren">Las Ray-Ban Meta graban cuando te las quitas. Y contratistas en Kenia ven a sus usuarios desnudos sin que se enteren</a>
 </div>
</p></div>
</p></div>
</div>
<p><strong>Las cifras</strong>. Asustan, desde luego. En el reportaje se apunta que el Centro Nacional para Menores Desaparecidos y Explotados recibió más de 1,5 millones de denuncias durante 2025 que tenían un componente de inteligencia general generativa. Entre ellas, más de 7.000 informes sobre usuarios que generaban o poseían material de abuso sexual infantil generado con IA y más de 30.000 casos de personas que generaban ese tipo de contenido. Es una burrada.</p>
<p><!-- BREAK 4 --></p>
<p>Por otro lado, la IWF (Internet Watch Foundation) <a rel="noopener, noreferrer" href="https://www.iwf.org.uk/news-media/news/dangerous-ai-child-sexual-abuse-reaches-record-high-as-public-backs-clampdown-on-uncensored-tools/">evaluó</a> más de 8.000 imágenes y vídeos generados por IA que representaban de forma muy realista actos de abuso sexual infantil. Había 3.443 vídeos frente a los 13 registrados en 2024. En total, un aumento del<a rel="noopener, noreferrer" href="https://iowanaht.org/april-2026/"> 26.385%</a>. El crecimiento es importante y la propia IWF apuntó en el informe que el 65% de ese contenido de vídeo generado por IA muestra hechos clasificados como de ‘Categoría A’, la más grave dentro de este tipo de material.</p>
<p><!-- BREAK 5 --></p>
<div class="article-asset-video article-asset-normal">
<div class="asset-content">
<div class="base-asset-video">
<div class="js-dailymotion"></div>
</p></div>
</p></div>
</div>
<p><strong>Casos</strong>. No pienses que son casos de la <a class="text-outboundlink" href="https://www.xataka.com/basics/que-dark-web-que-se-diferencia-deep-web-como-puedes-navegar-ella" data-vars-post-title="Qué es la Dark Web, en qué se diferencia de la Deep Web y cómo puedes navegar por ella" data-vars-post-url="https://www.xataka.com/basics/que-dark-web-que-se-diferencia-deep-web-como-puedes-navegar-ella">dark web</a>, ya que se han descubierto chatbots de IA en la web abierta que alojan estas imágenes e incitan a crearlas. ¿De qué tipo de contenido estamos hablando? Aquí viene lo delicado. Bloomberg apunta unos ejemplos que forman parte de esos miles de casos más complejos que se están procesando actualmente por parte de las autoridades y donde hay… de todo.</p>
<p><!-- BREAK 6 --></p>
<p>Un hombre que usó las caras de niños de su barrio para generar contenido con ellos manteniendo relaciones sexuales con sus madres o abuelas, otro que produjo imágenes sádicas de niños pequeños y bebés, otro hombre acusado de alterar la imagen de una niña prepúber para aumentarle el pecho y colgar las imágenes en <a class="text-outboundlink" href="https://www.xataka.com/basics/que-onlyfans-como-funciona-plataforma-micromecenazgo-para-contenido-adulto" data-vars-post-title="Qué es OnlyFans y cómo funciona la plataforma de micromecenazgo para contenido adulto" data-vars-post-url="https://www.xataka.com/basics/que-onlyfans-como-funciona-plataforma-micromecenazgo-para-contenido-adulto">Onlyfans</a>, un cura que pasó años recopilando material y luego creó aún más gracias a la IA o un soldado del ejército que sexualizaba con la IA imágenes de niños que conocía.</p>
<p><!-- BREAK 7 --></p>
<div class="article-asset article-asset-normal article-asset-center">
<div class="desvio-container">
<div class="desvio">
<div class="desvio-figure js-desvio-figure">
 <a href="https://www.xataka.com/empresas-y-economia/uso-inteligencia-artificial-para-crear-porno-se-esta-expandiendo-hay-quien-ve-polemico-negocio" class="pivot-outboundlink" data-vars-post-title="El uso de inteligencia artificial para crear porno se está expandiendo. Y hay quien ve un (polémico) negocio"><br />
 <img alt="El uso de inteligencia artificial para crear porno se está expandiendo. Y hay quien ve un (polémico) negocio" width="375" height="142" src="https://i.blogs.es/fda1eb/6498349887_ab75fb87ba_b/375_142.jpg"><br />
 </a>
 </div>
<div class="desvio-summary">
<div class="desvio-taxonomy js-desvio-taxonomy">
 <a href="https://www.xataka.com/empresas-y-economia/uso-inteligencia-artificial-para-crear-porno-se-esta-expandiendo-hay-quien-ve-polemico-negocio" class="desvio-taxonomy-anchor pivot-outboundlink" data-vars-post-title="El uso de inteligencia artificial para crear porno se está expandiendo. Y hay quien ve un (polémico) negocio">En Xataka</a>
 </div>
<p> <a href="https://www.xataka.com/empresas-y-economia/uso-inteligencia-artificial-para-crear-porno-se-esta-expandiendo-hay-quien-ve-polemico-negocio" class="desvio-title js-desvio-title pivot-outboundlink" data-vars-post-title="El uso de inteligencia artificial para crear porno se está expandiendo. Y hay quien ve un (polémico) negocio">El uso de inteligencia artificial para crear porno se está expandiendo. Y hay quien ve un (polémico) negocio</a>
 </div>
</p></div>
</p></div>
</div>
<p><strong>De dónde salen las imágenes de niños</strong>. Facebook e Instagram. Esa es la respuesta sencilla. Según Joe O’Barr, uno de los investigadores que ha prestado voz en la investigación de Bloomberg, “la gente roba imágenes de Facebook e Instagram, cosas que los padres publican libremente, y<a class="text-outboundlink" href="https://www.xatakamovil.com/movil-y-sociedad/paradoja-redes-sociales-me-niego-a-publicar-fotos-mis-hijos-veo-crecer-a-mis-amigas-instagram" data-vars-post-title="He decidido no volver a publicar fotos de mis hijos en redes sociales. Y tengo buenos motivos para ello" data-vars-post-url="https://www.xatakamovil.com/movil-y-sociedad/paradoja-redes-sociales-me-niego-a-publicar-fotos-mis-hijos-veo-crecer-a-mis-amigas-instagram"> las cuelgan en plataformas de inteligencia artificial</a>”.</p>
<p><!-- BREAK 8 --></p>
<p>Un patrón que se ha descubierto es que muchos crean imágenes que involucran niños que conocen en el mundo real, pudiendo cumplir de este modo sus fantasías. Por ejemplo, un caso de un hombre que tomó fotos de la hija de seis años de su pareja, las manipuló con la IA y luego las colgó junto a imágenes propias desnudo en Onlyfans.</p>
<p><!-- BREAK 9 --></p>
<div class="article-asset-summary article-asset-normal article-asset-center">
<div class="asset-content">
<div class="sumario">“El hecho de que el perpetrador conociera a la víctima hizo que se me erizara el pelo. Significaba que la niña podía estar en peligro real e inminente” &#8211; Joe O’Barr</div>
</p></div>
</div>
<p><strong>Qué hacen las plataformas</strong>. Esas mismas plataformas en las que se alojan las imágenes no se quedan de brazos cruzados. Los investigadores confían en que esas mismas compañías darán la voz de alerta cuando encuentren algo, pero hay un problema: Google, xAI, Meta u OnlyFans están delegando la tarea de supervisión a la IA. Se han reportado numerosos casos de <a class="text-outboundlink" href="https://www.xataka.com/empresas-y-economia/durante-anos-filtraron-asesinatos-violaciones-para-facebook-barcelona-ahora-reclaman-4-millones-a-meta-dano-psicologico" data-vars-post-title="Filtrar el lado más oscuro de Facebook desde Barcelona tuvo un precio psicológico. Ahora, los moderadores reclaman indemnizaciones" data-vars-post-url="https://www.xataka.com/empresas-y-economia/durante-anos-filtraron-asesinatos-violaciones-para-facebook-barcelona-ahora-reclaman-4-millones-a-meta-dano-psicologico">humanos que no soportan el marcar ese tipo de contenido</a> y es por ello que, o contratan en países como Kenia, o directamente delegan en la IA.</p>
<p><!-- BREAK 10 --></p>
<p>El problema es la cantidad de falsos positivos que encuentra la IA y que terminan sobrecargando el ‘buzón’ de los investigadores. Un investigador de Carolina del Norte apunta que ha visto un aumento de 11 veces en esas ‘pistas’ que recibe su oficina, y sólo el año pasado el volumen se duplicó hasta alcanzar los 52.000 informes. Apunta que cualquier humano diría “esto no es contenido que investigar”, pero como la IA no lo sabe, envía de todo: desde cosas serias a investigar hasta simples insultos.</p>
<div class="article-asset-video article-asset-normal">
<div class="asset-content">
<div class="base-asset-video">
<div class="js-dailymotion"></div>
</p></div>
</p></div>
</div>
<p><strong>Insoportable</strong>. “Cuantos más casos tenemos para investigar, más difícil es tratar cada caso de manera individual”, asegura uno de los investigadores. Desde la propia Meta se ha reconocido que su sistema no es perfecto y agrega “algo de ruido” a la red de los investigadores. Como ya decíamos antes, es una enorme cantidad de material que impide que los investigadores realicen su trabajo en casos reales de menores de los que se está abusando o que están desaparecidos.</p>
<p><!-- BREAK 11 --></p>
<p>“Estamos haciendo este trabajo masivo con la misma cantidad de recursos que teníamos hace diez años. No podemos soportarlo más y no queremos echar de menos a un niño de verdad del que se esté abusando sexualmente”, comenta un agente a Bloomberg.</p>
<div class="article-asset article-asset-normal article-asset-center">
<div class="desvio-container">
<div class="desvio">
<div class="desvio-figure js-desvio-figure">
 <a href="https://www.xataka.com/robotica-e-ia/alibaba-lanzo-modelo-ia-generacion-video-24-horas-se-habia-usado-para-generar-decenas-videos-pornograficos" class="pivot-outboundlink" data-vars-post-title="Alibaba tiene nueva IA Open Source para generar vídeos. El problema es que se está usando para generar deepfakes pornográficos"><br />
 <img alt="Alibaba tiene nueva IA Open Source para generar vídeos. El problema es que se está usando para generar deepfakes pornográficos" width="375" height="142" src="https://i.blogs.es/084907/civitai-1/375_142.jpeg"><br />
 </a>
 </div>
<div class="desvio-summary">
<div class="desvio-taxonomy js-desvio-taxonomy">
 <a href="https://www.xataka.com/robotica-e-ia/alibaba-lanzo-modelo-ia-generacion-video-24-horas-se-habia-usado-para-generar-decenas-videos-pornograficos" class="desvio-taxonomy-anchor pivot-outboundlink" data-vars-post-title="Alibaba tiene nueva IA Open Source para generar vídeos. El problema es que se está usando para generar deepfakes pornográficos">En Xataka</a>
 </div>
<p> <a href="https://www.xataka.com/robotica-e-ia/alibaba-lanzo-modelo-ia-generacion-video-24-horas-se-habia-usado-para-generar-decenas-videos-pornograficos" class="desvio-title js-desvio-title pivot-outboundlink" data-vars-post-title="Alibaba tiene nueva IA Open Source para generar vídeos. El problema es que se está usando para generar deepfakes pornográficos">Alibaba tiene nueva IA Open Source para generar vídeos. El problema es que se está usando para generar deepfakes pornográficos</a>
 </div>
</p></div>
</p></div>
</div>
<p><strong>Legisladores, a ponerse las pilas</strong>. El trabajo de estos investigadores depende del Departamento de Justicia y de una financiación que consiste en unos 30 millones de dólares para 61 grupos de trabajo estatales. Apuntan que es una cifra muy pequeña y, para contextualizar, es lo que el FBI gasta en un día. Denuncian que, a pesar de la avalancha de informes de material de abuso sexual infantil, la financiación se ha mantenido sin cambios.</p>
<p><!-- BREAK 12 --></p>
<p>Hay otros problemas como el hecho de que el ritmo de la legislación vaya a la <a rel="noopener, noreferrer" href="https://static1.squarespace.com/static/61fef737004f564915c6b3cd/t/693217a9c4bdb61fb62273a3/1765739160444/Policy+Briefs+2026+%283%29.pdf">zaga</a> de la <a rel="noopener, noreferrer" href="https://www.npr.org/2026/04/14/g-s1-117410/deepfake-ai-images-child-sex-abuse">tecnología</a> o que los delincuentes se estén envalentonando, precisamente, porque saben que la cantidad de información verdadera y falsa está sepultando a los investigadores. Porque, si antes un depredador infantil podía llegar a dos o tres niños, con la IA podría llegar a 40 o 50 niños. “Es, básicamente, como pescar con dinamita”, apunta un investigador retirado que estuvo 30 años en una brigada de lucha por la seguridad infantil.</p>
<p><!-- BREAK 13 --></p>
<p>El reportaje de <a rel="noopener, noreferrer" href="https://www.bloomberg.com/features/2026-ai-child-predators-law-enforcement/">Bloomberg</a> es durísimo, pero al final representa la otra cara de una tecnología que es extremadamente joven y que no ha tardado nada en democratizarse. Para lo bueno y, como vemos, para lo peor. Ya lo vimos en una forma incipiente de esto como los <a href="https://www.xataka.com/robotica-e-ia/dentro-dos-anos-va-a-ser-imposible-saber-que-realidad-que-no-reto-regular-deepfakes#:~:text=El%20t%C3%A9rmino%20ingl%C3%A9s%20proviene%20de,algoritmos%20de%20aprendizaje%20no%20supervisados."><em>deep fakes</em></a> que las propias actrices vulneradas calificaron como "<a class="text-outboundlink" href="https://www.xataka.com/otros-dispositivos/scarlett-johansson-se-rinde-deep-fakes-pornograficos-basicamente-causa-perdida" data-vars-post-title="Scarlett Johansson reconoce que luchar contra los 'deep fakes' pornográficos ";es básicamente una causa perdida";" data-vars-post-url="https://www.xataka.com/otros-dispositivos/scarlett-johansson-se-rinde-deep-fakes-pornograficos-basicamente-causa-perdida">una causa perdida</a>".</p>
<p><!-- BREAK 14 --></p>
<p>En Xataka | <a class="text-outboundlink" href="https://www.xataka.com/robotica-e-ia/pasaba-8-horas-al-dia-mirando-pornografia-para-entrenar-ia-hoy-lidera-sindicato-trabajadores-que-lucha-eso" data-vars-post-title="En ocasiones, las IA eróticas son IA. Y en ocasiones, son un señor de Kenia que cobra dos dólares por hora" data-vars-post-url="https://www.xataka.com/robotica-e-ia/pasaba-8-horas-al-dia-mirando-pornografia-para-entrenar-ia-hoy-lidera-sindicato-trabajadores-que-lucha-eso">En ocasiones, las IA eróticas son IA. Y en ocasiones, son un señor de Kenia que cobra dos dólares por hora</a></p>
<p> &#8211; <br /> La noticia<br />
 <a href="https://www.xataka.com/robotica-e-ia/ia-hace-que-cada-vez-sea-dificil-saber-que-real-que-no-depredadores-sexuales-infantiles-estan-tomado-nota?utm_source=feedburner&;utm_medium=feed&;utm_campaign=23_Apr_2026"><br />
 <em> La IA hace que cada vez sea más difícil saber qué es real y qué no. Y los depredadores sexuales infantiles están tomado nota </em><br />
 </a><br />
 fue publicada originalmente en<br />
 <a href="https://www.xataka.com/?utm_source=feedburner&;utm_medium=feed&;utm_campaign=23_Apr_2026"><br />
 <strong> Xataka </strong><br />
 </a><br />
 por<br />
 <a href="https://www.xataka.com/autor/alejandro-alcolea?utm_source=feedburner&;utm_medium=feed&;utm_campaign=23_Apr_2026"><br />
 Alejandro Alcolea<br />
 </a><br />
 . </p>
<p> La era de la inteligencia artificial está haciendo que todo vaya muy rápido muy deprisa. Empresas como Mercadona, Google o Anthropic ya apuntan que la gran mayoría de su código lo escribe una IA, Mozilla echa flores a Mythos y Jensen Huang está entusiasmado con las bondades de la IA y todo lo que nos permite crear. Entre esas creaciones hay de todo, como por ejemplo una enorme cantidad de material de abuso sexual infantil.</p>
<p>Los investigadores piden ayuda, y ya te adelanto que hay cosas que no son fáciles de asimilar.</p>
<p>En corto. Este miércoles, Bloomberg publicó un reportaje que condensa seis meses de investigación en el que se han enfocado en la rápida proliferación de material de abuso sexual infantil generado por inteligencia artificial. No es algo que extrañe si tenemos en cuenta la enorme cantidad de información falsa con la que ya hay que lidiar día a día tanto en forma de texto como en imágenes cada vez más realistas y hasta en vídeo, pero sí hay un matiz importante.</p>
<p>Mientras en el caso de las fake news es la prensa y la gente quien debe aterrizarlo con sentido común para no tragarse el bulo, perdiendo tiempo en el proceso, en el caso de este contenido generado por IA es la policía e investigadores quienes deben perder su tiempo para descartar que se trate de información veraz. Y, mientras están haciendo eso, dejan de investigar casos de abuso sexual infantil, otro tipo de maltrato o desapariciones que sí son reales.</p>
<p> En Xataka</p>
<p> Las Ray-Ban Meta graban cuando te las quitas. Y contratistas en Kenia ven a sus usuarios desnudos sin que se enteren</p>
<p>Las cifras. Asustan, desde luego. En el reportaje se apunta que el Centro Nacional para Menores Desaparecidos y Explotados recibió más de 1,5 millones de denuncias durante 2025 que tenían un componente de inteligencia general generativa. Entre ellas, más de 7.000 informes sobre usuarios que generaban o poseían material de abuso sexual infantil generado con IA y más de 30.000 casos de personas que generaban ese tipo de contenido. Es una burrada.</p>
<p>Por otro lado, la IWF (Internet Watch Foundation) evaluó más de 8.000 imágenes y vídeos generados por IA que representaban de forma muy realista actos de abuso sexual infantil. Había 3.443 vídeos frente a los 13 registrados en 2024. En total, un aumento del 26.385%. El crecimiento es importante y la propia IWF apuntó en el informe que el 65% de ese contenido de vídeo generado por IA muestra hechos clasificados como de ‘Categoría A’, la más grave dentro de este tipo de material.</p>
<p>Casos. No pienses que son casos de la dark web, ya que se han descubierto chatbots de IA en la web abierta que alojan estas imágenes e incitan a crearlas. ¿De qué tipo de contenido estamos hablando? Aquí viene lo delicado. Bloomberg apunta unos ejemplos que forman parte de esos miles de casos más complejos que se están procesando actualmente por parte de las autoridades y donde hay… de todo.</p>
<p>Un hombre que usó las caras de niños de su barrio para generar contenido con ellos manteniendo relaciones sexuales con sus madres o abuelas, otro que produjo imágenes sádicas de niños pequeños y bebés, otro hombre acusado de alterar la imagen de una niña prepúber para aumentarle el pecho y colgar las imágenes en Onlyfans, un cura que pasó años recopilando material y luego creó aún más gracias a la IA o un soldado del ejército que sexualizaba con la IA imágenes de niños que conocía.</p>
<p> En Xataka</p>
<p> El uso de inteligencia artificial para crear porno se está expandiendo. Y hay quien ve un (polémico) negocio</p>
<p>De dónde salen las imágenes de niños. Facebook e Instagram. Esa es la respuesta sencilla. Según Joe O’Barr, uno de los investigadores que ha prestado voz en la investigación de Bloomberg, “la gente roba imágenes de Facebook e Instagram, cosas que los padres publican libremente, y las cuelgan en plataformas de inteligencia artificial”.</p>
<p>Un patrón que se ha descubierto es que muchos crean imágenes que involucran niños que conocen en el mundo real, pudiendo cumplir de este modo sus fantasías. Por ejemplo, un caso de un hombre que tomó fotos de la hija de seis años de su pareja, las manipuló con la IA y luego las colgó junto a imágenes propias desnudo en Onlyfans.</p>
<p> “El hecho de que el perpetrador conociera a la víctima hizo que se me erizara el pelo. Significaba que la niña podía estar en peligro real e inminente” &#8211; Joe O’Barr</p>
<p>Qué hacen las plataformas. Esas mismas plataformas en las que se alojan las imágenes no se quedan de brazos cruzados. Los investigadores confían en que esas mismas compañías darán la voz de alerta cuando encuentren algo, pero hay un problema: Google, xAI, Meta u OnlyFans están delegando la tarea de supervisión a la IA. Se han reportado numerosos casos de humanos que no soportan el marcar ese tipo de contenido y es por ello que, o contratan en países como Kenia, o directamente delegan en la IA.<br />
El problema es la cantidad de falsos positivos que encuentra la IA y que terminan sobrecargando el ‘buzón’ de los investigadores. Un investigador de Carolina del Norte apunta que ha visto un aumento de 11 veces en esas ‘pistas’ que recibe su oficina, y sólo el año pasado el volumen se duplicó hasta alcanzar los 52.000 informes. Apunta que cualquier humano diría “esto no es contenido que investigar”, pero como la IA no lo sabe, envía de todo: desde cosas serias a investigar hasta simples insultos.</p>
<p>Insoportable. “Cuantos más casos tenemos para investigar, más difícil es tratar cada caso de manera individual”, asegura uno de los investigadores. Desde la propia Meta se ha reconocido que su sistema no es perfecto y agrega “algo de ruido” a la red de los investigadores. Como ya decíamos antes, es una enorme cantidad de material que impide que los investigadores realicen su trabajo en casos reales de menores de los que se está abusando o que están desaparecidos.<br />
“Estamos haciendo este trabajo masivo con la misma cantidad de recursos que teníamos hace diez años. No podemos soportarlo más y no queremos echar de menos a un niño de verdad del que se esté abusando sexualmente”, comenta un agente a Bloomberg.</p>
<p> En Xataka</p>
<p> Alibaba tiene nueva IA Open Source para generar vídeos. El problema es que se está usando para generar deepfakes pornográficos</p>
<p>Legisladores, a ponerse las pilas. El trabajo de estos investigadores depende del Departamento de Justicia y de una financiación que consiste en unos 30 millones de dólares para 61 grupos de trabajo estatales. Apuntan que es una cifra muy pequeña y, para contextualizar, es lo que el FBI gasta en un día. Denuncian que, a pesar de la avalancha de informes de material de abuso sexual infantil, la financiación se ha mantenido sin cambios.</p>
<p>Hay otros problemas como el hecho de que el ritmo de la legislación vaya a la zaga de la tecnología o que los delincuentes se estén envalentonando, precisamente, porque saben que la cantidad de información verdadera y falsa está sepultando a los investigadores. Porque, si antes un depredador infantil podía llegar a dos o tres niños, con la IA podría llegar a 40 o 50 niños. “Es, básicamente, como pescar con dinamita”, apunta un investigador retirado que estuvo 30 años en una brigada de lucha por la seguridad infantil.</p>
<p>El reportaje de Bloomberg es durísimo, pero al final representa la otra cara de una tecnología que es extremadamente joven y que no ha tardado nada en democratizarse. Para lo bueno y, como vemos, para lo peor. Ya lo vimos en una forma incipiente de esto como los deep fakes que las propias actrices vulneradas calificaron como "una causa perdida".</p>
<p>En Xataka | En ocasiones, las IA eróticas son IA. Y en ocasiones, son un señor de Kenia que cobra dos dólares por hora</p>
<p> &#8211; La noticia</p>
<p> La IA hace que cada vez sea más difícil saber qué es real y qué no. Y los depredadores sexuales infantiles están tomado nota </p>
<p> fue publicada originalmente en</p>
<p> Xataka </p>
<p> por </p>
<p> Alejandro Alcolea</p>
<p> . </p>