
La disputa entre medios, creadores y empresas de inteligencia artificial dio un giro decisivo con la presentación de RSL 1.0, un nuevo estándar diseñado para regular cómo los sistemas de IA pueden usar el contenido disponible en internet. La propuesta surge en medio de un crecimiento explosivo de modelos como ChatGPT, Gemini o Grok, entrenados con enormes volúmenes de información cuya procedencia y uso han generado controversia.


Durante años, compañías tecnológicas han recurrido a rastreadores automatizados y a bases de datos externas para extraer material de miles de sitios web sin suficiente transparencia, según denuncian los editores. Esto ha desatado una escalada de demandas y debates sobre derechos de autor, propiedad intelectual y beneficios económicos en la era de la IA.
RSL 1.0, impulsado por el RSL Collective y un comité técnico integrado por empresas como Yahoo, Ziff Davis u O’Reilly Media, ofrece una solución esperada: un sistema legible por máquinas que permite a los editores definir con precisión cómo puede utilizarse su contenido. El estándar actúa como una evolución del histórico archivo robots.txt, incorporando nuevas categorías orientadas directamente a la inteligencia artificial.

Entre las novedades destacan etiquetas como “ai-input”, destinada a autorizar o bloquear el uso de contenido para entrenar modelos; “ai-index”, enfocada en la indexación tradicional; y “ai-all”, que permite prohibir cualquier uso asociado a IA. Con esto, los medios podrán limitar la extracción de datos sin sacrificar su visibilidad en motores de búsqueda.
Uno de los problemas más grandes hasta ahora era la imposibilidad de separar el acceso para entrenamiento de IA del acceso para indexación general, especialmente en servicios como Google. Según los impulsores del estándar, RSL 1.0 llena precisamente ese vacío, ofreciendo por primera vez un control granular e independiente.
El estándar también introduce un sistema de “contribución”, desarrollado junto a Creative Commons, que permitirá a creadores y organizaciones sin fines de lucro exigir aportes económicos cuando su contenido sea utilizado por modelos de inteligencia artificial. Su objetivo es garantizar un reparto más justo y sostener el ecosistema de recursos abiertos en la web.
La iniciativa recibió apoyo inmediato de editores, grandes medios, plataformas y proveedores de infraestructura como Cloudflare, Akamai y Fastly, cuya participación es clave para que las reglas se apliquen de manera efectiva en la red. Sin embargo, su efectividad dependerá de que los rastreadores respeten el estándar, algo que no puede garantizarse completamente.

Aunque RSL 1.0 establece un marco más claro y transparente, persiste la incertidumbre sobre su adopción por parte de empresas que históricamente han recopilado contenido sin autorización. También surge la duda de cómo los editores pequeños, con menos recursos, podrán negociar condiciones en un entorno dominado por grandes plataformas tecnológicas.
Con este nuevo estándar, la batalla por el control del contenido entra en una nueva fase. Ahora resta ver si RSL 1.0 logra equilibrar la innovación en IA con la protección de los derechos y el trabajo de quienes crean la información que alimenta a estos modelos.

Vía: Xataka
