Ciencia y Tecnología
La batalla por el contenido acaba de dar un giro: ahora hay un estándar para cobrar a las compañías que saquen la web
Cuando usamos Gemini, ChatGPT o Grok, es fácil pensar que esa capacidad para producir resultados en pocos segundos roza lo extraordinario, incluso con sus fallos habituales. Pero no hay misterio: dependen de modelos entrenados con cantidades masivas de información. Ese proceso ha encendido un debate cada vez más intenso sobre cómo se utiliza todo ese contenido y hasta dónde llega el control de quienes lo generan. En ese clima aparece una propuesta que intenta poner cierto orden.
La extracción masiva de contenido. El crecimiento acelerado de la IA ha dejado al descubierto el mencionado fenómeno. Las compañías recurren a rastreadores propios y a conjuntos de datos elaborados por terceros que agregan material procedente de miles de sitios web. Para los editores, el problema no es solo la escala, sino la falta de transparencia sobre qué se recopila, cómo se utiliza y quién obtiene beneficios. El choque entre estos intereses ha alimentado demandas y debates sobre el equilibrio entre innovación y derechos de autor.
Qué es RSL 1.0. Ahora llega RSL 1.0, un estándar abierto diseñado para que los editores puedan expresar, de forma legible por máquinas, cómo debe utilizarse su contenido en la era de la IA. La iniciativa surge del RSL Collective y del RSL Technical Steering Committee, donde participan compañías de internet, medios y organizaciones de estándares como Yahoo, Ziff Davis y O’Reilly Media. El objetivo es que los medios puedan definir reglas transparentes de uso y licencia que los sistemas de IA deban respetar.
Un estándar operativo. Aquí aparece en escena el archivo robots.txt, que ha sido la herramienta fundamental para guiar a los rastreadores de la web, permitiendo o denegando acceso a determinadas rutas de un sitio. Esa simplicidad fue útil durante años, aunque no contemplaba usos concretos como el entrenamiento de modelos de IA. RSL 1.0 da un paso más y describe permisos diferenciados mediante categorías como “ai-input”, pensada para el entrenamiento, o “ai-index”, vinculada a la indexación clásica. La categoría “ai-all” permite bloquear cualquier uso relacionado con IA.
La idea es que con este sistema los editores puedan definir límites específicos sin perder visibilidad en los buscadores. Las reglas siguen siendo simples, pero ahora mucho más informativas.
Resolviendo una limitación clave. Hasta ahora, según los impulsores de la iniciativa, un editor que quiera evitar ese uso debe aceptar que su contenido deje de aparecer también en la búsqueda tradicional, porque Google no ofrece una opción individual para separar ambos ámbitos. Para los cofundadores del RSL Collective, “RSL proporciona exactamente esa capa que faltaba”, al permitir un control independiente entre ambos usos.

El modelo de contribución. Una de las novedades más destacadas de RSL 1.0 es el sistema de “contribución”, pensado para que creadores y organizaciones sin ánimo de lucro puedan exigir aportaciones a los sistemas de IA que utilicen su material. La iniciativa se ha desarrollado junto a Creative Commons y busca reforzar la sostenibilidad del digital commons, que reúne miles de millones de recursos abiertos en la web. Su directora ejecutiva, Anna Tumadóttir, señala que “es imprescindible que existan opciones de reparto justo más allá de las licencias comerciales, para poder seguir sosteniendo los bienes comunes y proteger el acceso al conocimiento en la era de la IA”.
Una adopción amplia. La publicación de RSL 1.0 ha generado un respaldo notable entre editores, plataformas y organismos técnicos, además de contar con el apoyo de proveedores de infraestructura como Cloudflare, Akamai y Fastly. Su implicación es relevante porque estos servicios pueden aplicar de forma directa las reglas que los editores definan.
Ahora bien, aunque RSL 1.0 introduce un marco más claro para expresar reglas de uso, no soluciona todos los problemas que plantea el entrenamiento de modelos de IA. El estándar depende de que los rastreadores lo respeten y de que los proveedores de infraestructura lo apliquen, de modo que las empresas que ignoren estas señales podrían seguir recopilando contenido sin autorización. Tampoco está claro cómo afectará a editores pequeños que carecen de recursos para negociar con grandes plataformas.
El avance de la IA ha cambiado la forma en que interactuamos con la información, aunque a menudo olvidemos que detrás de esos resultados rápidos hay contenido creado por millones de personas. Toca esperar para saber si RSL 1.0 conseguirá equilibrar las reglas de juego.
Imágenes | Xataka con Gemini 3 Pro | Solen Feyissa
–
La noticia
La batalla por el contenido acaba de dar un giro: ahora hay un estándar para cobrar a las compañías que saquen la web
fue publicada originalmente en
Xataka
por
Javier Marquez
.
Cuando usamos Gemini, ChatGPT o Grok, es fácil pensar que esa capacidad para producir resultados en pocos segundos roza lo extraordinario, incluso con sus fallos habituales. Pero no hay misterio: dependen de modelos entrenados con cantidades masivas de información. Ese proceso ha encendido un debate cada vez más intenso sobre cómo se utiliza todo ese contenido y hasta dónde llega el control de quienes lo generan. En ese clima aparece una propuesta que intenta poner cierto orden.
La extracción masiva de contenido. El crecimiento acelerado de la IA ha dejado al descubierto el mencionado fenómeno. Las compañías recurren a rastreadores propios y a conjuntos de datos elaborados por terceros que agregan material procedente de miles de sitios web. Para los editores, el problema no es solo la escala, sino la falta de transparencia sobre qué se recopila, cómo se utiliza y quién obtiene beneficios. El choque entre estos intereses ha alimentado demandas y debates sobre el equilibrio entre innovación y derechos de autor.
Qué es RSL 1.0. Ahora llega RSL 1.0, un estándar abierto diseñado para que los editores puedan expresar, de forma legible por máquinas, cómo debe utilizarse su contenido en la era de la IA. La iniciativa surge del RSL Collective y del RSL Technical Steering Committee, donde participan compañías de internet, medios y organizaciones de estándares como Yahoo, Ziff Davis y O’Reilly Media. El objetivo es que los medios puedan definir reglas transparentes de uso y licencia que los sistemas de IA deban respetar.
Un estándar operativo. Aquí aparece en escena el archivo robots.txt, que ha sido la herramienta fundamental para guiar a los rastreadores de la web, permitiendo o denegando acceso a determinadas rutas de un sitio. Esa simplicidad fue útil durante años, aunque no contemplaba usos concretos como el entrenamiento de modelos de IA. RSL 1.0 da un paso más y describe permisos diferenciados mediante categorías como “ai-input”, pensada para el entrenamiento, o “ai-index”, vinculada a la indexación clásica. La categoría “ai-all” permite bloquear cualquier uso relacionado con IA.
La idea es que con este sistema los editores puedan definir límites específicos sin perder visibilidad en los buscadores. Las reglas siguen siendo simples, pero ahora mucho más informativas.
Resolviendo una limitación clave. Hasta ahora, según los impulsores de la iniciativa, un editor que quiera evitar ese uso debe aceptar que su contenido deje de aparecer también en la búsqueda tradicional, porque Google no ofrece una opción individual para separar ambos ámbitos. Para los cofundadores del RSL Collective, “RSL proporciona exactamente esa capa que faltaba”, al permitir un control independiente entre ambos usos.
El modelo de contribución. Una de las novedades más destacadas de RSL 1.0 es el sistema de “contribución”, pensado para que creadores y organizaciones sin ánimo de lucro puedan exigir aportaciones a los sistemas de IA que utilicen su material. La iniciativa se ha desarrollado junto a Creative Commons y busca reforzar la sostenibilidad del digital commons, que reúne miles de millones de recursos abiertos en la web. Su directora ejecutiva, Anna Tumadóttir, señala que “es imprescindible que existan opciones de reparto justo más allá de las licencias comerciales, para poder seguir sosteniendo los bienes comunes y proteger el acceso al conocimiento en la era de la IA”.
Una adopción amplia. La publicación de RSL 1.0 ha generado un respaldo notable entre editores, plataformas y organismos técnicos, además de contar con el apoyo de proveedores de infraestructura como Cloudflare, Akamai y Fastly. Su implicación es relevante porque estos servicios pueden aplicar de forma directa las reglas que los editores definan.
En Xataka
Si alguien pensaba que Europa no pintaba nada en la carrera por la IA, Mistral tiene algo que decirle
Ahora bien, aunque RSL 1.0 introduce un marco más claro para expresar reglas de uso, no soluciona todos los problemas que plantea el entrenamiento de modelos de IA. El estándar depende de que los rastreadores lo respeten y de que los proveedores de infraestructura lo apliquen, de modo que las empresas que ignoren estas señales podrían seguir recopilando contenido sin autorización. Tampoco está claro cómo afectará a editores pequeños que carecen de recursos para negociar con grandes plataformas.
El avance de la IA ha cambiado la forma en que interactuamos con la información, aunque a menudo olvidemos que detrás de esos resultados rápidos hay contenido creado por millones de personas. Toca esperar para saber si RSL 1.0 conseguirá equilibrar las reglas de juego.
Imágenes | Xataka con Gemini 3 Pro | Solen Feyissa
En Xataka | McDonald’s no ha aprendido de Coca-Cola y ha presentado un anuncio navideño hecho con IA. Las reacciones han sido aún peores
– La noticia
La batalla por el contenido acaba de dar un giro: ahora hay un estándar para cobrar a las compañías que saquen la web
fue publicada originalmente en
Xataka
por
Javier Marquez
.

