Tecnología
El Gobierno de España quiere que todo el contenido IA lleve una «etiqueta». Suena muy bien, pero es un reto tremendo
Si has generado un texto, un audio o un vídeo con IA, será mejor que lo etiquetes. De lo contrario podrías exponerte a una multa realmente importante. Es la conclusión del anteproyecto de ley que el Consejo de Ministros aprobó ayer, y está orientada especialmente a evitar los riesgos de los deepfakes.
El Papa y las alarmas. En marzo de 2023 se hizo viral un deepfake del Papa Francisco llevando un teórico abrigo de Balenciaga. Aquello disparó las alarmas de la Unión Europea, que puso en marcha la Ley de la IA, aprobada por el Parlamento Europeo el 13 de marzo de 2024 y que entró en vigor meses después, el 1 de agosto. Ahora España adapta esa ley para un propósito claro.
España contra los deepfakes.El ministro de Transformación Digital y de la Función Pública, Óscar López, explicaba que «La IA es una herramienta muy poderosa, que puede servir para mejorar nuestras vidas o para difundir bulos y atacar la democracia».
No etiquetar contenidos de IA, infracción grave. Este anteproyecto de ley considera como infracción grave no cumplir con el etiquetado de textos, vídeos o audios generados con IA para identificarlos de froma adecuada. Es algo en lo que la UE lleva insistiendo desde junio de 2023, pero hay dos problemas: que casi nadie lo está haciendo de momento.
Multas colosales. El ministro no concretó cómo realizar ese etiquetado, y según sus palabras, será la AESIA la que ponga las normas para ese etiquetado. Como ya estableció la Ley de la IA, incumplir la normativa plantea multas de hasta 35 millones de euros y/o entre el 5 y el 7% de la facturación mundial de la empresa infractora.
Iniciativas para etiquetar: haberlas, haylas. La necesidad de etiquetar textos, imágenes, vídeos y audios es evidente, pero por ahora no hay una alternativa universal y aceptada. Google propuso su propia solución en mayo de 2023 y la remozó en octubre de 2024 con SynthID, que se puede aplicar hasta en textos cortos y ya es usada por Gemini. Adobe también se lanzó pronto a intentar solucionar el problema. Meta tiene sus propias marcas de agua para audios generados por IA. Hasta OpenAI se unió al esfuerzo con un combo de un símbolo CR («content CRedentials«, también impulsado por Adobe) visible y una marca de agua invisible en las imágenes generadas con IA.
La arquitectura del estándar C2PA deja claro cómo cada contenido va añadiendo metadatos que van indicando los pasos en los que se ha editado y cómo, incluyendo posibles usos de IA. Fuente: C2PA.
El estándar C2PA y la búsqueda del consenso. La propuesta más destacable en este sentido es la del estándar C2PA (Coalition for Content Provenance and Authenticity). Esta coalición gestiona tecnologías como la citada especificación Content Credentials para etiquetar contenidos generado spor IA. Muchas de las principales empresas de IA están en ese grupo, incluyendo a OpenAI, Amazon, Google, Meta o Microsoft, pero hay una gran ausencia: Apple, que (inexplicablemente) no parece pronunciarse al respecto.
¿Dónde están las etiquetas de IA? A pesar de que la tecnología de etiquetado está ahí, no acaba de ser utilizada ampliamente. Hay casos aislados: Meta comenzó a etiquetar imágenes en Instagram o Facebook, pero está teniendo problemas para realizar ese etiquetado, que se intenta aplicar a contenidos ya publicados. YouTube también ha dado pasos en ese sentido y Google comienza a implementarlo en su buscador y sus anuncios. Hasta fabricantes como Sony o Leica etiquetan sus fotos en algunas de sus cámaras.
Etiquetarlo todo, esté o no hecho con IA. Lo ideal (¿la utopía?) sería que cualquier contenido estuviera etiquetado de dos formas: o está hecho con asistencia de IA, o es un contenido en el que la IA no ha ayudado. El ejemplo perfecto lo tenemos en las apps de cámara de nuestros móviles con Android o iOS: esas imágenes y vídeos deberían estar etiquetadas con algo similar a un «contenido sin IA», por ejemplo. Es lo que plantean las cámaras de Sony o Leica, pero impone un problema enorme para todo el segmento hardware y software.
Necesitamos que la adopción se dispare. Las empresas parecen tener claro que algo así es necesario y razonable, pero ponerlo en marcha está siendo un proceso especialmente largo y complejo. El etiquetado criptográfico es probablemente la mejor opción para evitar que los deepfakes se conviertan en una amenaza aún más importante, pero aquí hay un paso decisivo: que las empresas adopten estas medidas. Aunque sea poco a poco.
–
La noticia
El Gobierno de España quiere que todo el contenido IA lleve una «etiqueta». Suena muy bien, pero es un reto tremendo
fue publicada originalmente en
Xataka
por
Javier Pastor
.
Si has generado un texto, un audio o un vídeo con IA, será mejor que lo etiquetes. De lo contrario podrías exponerte a una multa realmente importante. Es la conclusión del anteproyecto de ley que el Consejo de Ministros aprobó ayer, y está orientada especialmente a evitar los riesgos de los deepfakes.
El Papa y las alarmas. En marzo de 2023 se hizo viral un deepfake del Papa Francisco llevando un teórico abrigo de Balenciaga. Aquello disparó las alarmas de la Unión Europea, que puso en marcha la Ley de la IA, aprobada por el Parlamento Europeo el 13 de marzo de 2024 y que entró en vigor meses después, el 1 de agosto. Ahora España adapta esa ley para un propósito claro.
En Xataka
Diferenciar el contenido IA en Internet es cada vez más difícil. La solución pasa por algo similar a los filetes
España contra los deepfakes.El ministro de Transformación Digital y de la Función Pública, Óscar López, explicaba que «La IA es una herramienta muy poderosa, que puede servir para mejorar nuestras vidas o para difundir bulos y atacar la democracia».
No etiquetar contenidos de IA, infracción grave. Este anteproyecto de ley considera como infracción grave no cumplir con el etiquetado de textos, vídeos o audios generados con IA para identificarlos de froma adecuada. Es algo en lo que la UE lleva insistiendo desde junio de 2023, pero hay dos problemas: que casi nadie lo está haciendo de momento.
Multas colosales. El ministro no concretó cómo realizar ese etiquetado, y según sus palabras, será la AESIA la que ponga las normas para ese etiquetado. Como ya estableció la Ley de la IA, incumplir la normativa plantea multas de hasta 35 millones de euros y/o entre el 5 y el 7% de la facturación mundial de la empresa infractora.
Iniciativas para etiquetar: haberlas, haylas. La necesidad de etiquetar textos, imágenes, vídeos y audios es evidente, pero por ahora no hay una alternativa universal y aceptada. Google propuso su propia solución en mayo de 2023 y la remozó en octubre de 2024 con SynthID, que se puede aplicar hasta en textos cortos y ya es usada por Gemini. Adobe también se lanzó pronto a intentar solucionar el problema. Meta tiene sus propias marcas de agua para audios generados por IA. Hasta OpenAI se unió al esfuerzo con un combo de un símbolo CR («content CRedentials», también impulsado por Adobe) visible y una marca de agua invisible en las imágenes generadas con IA.
La arquitectura del estándar C2PA deja claro cómo cada contenido va añadiendo metadatos que van indicando los pasos en los que se ha editado y cómo, incluyendo posibles usos de IA. Fuente: C2PA.
El estándar C2PA y la búsqueda del consenso. La propuesta más destacable en este sentido es la del estándar C2PA (Coalition for Content Provenance and Authenticity). Esta coalición gestiona tecnologías como la citada especificación Content Credentials para etiquetar contenidos generado spor IA. Muchas de las principales empresas de IA están en ese grupo, incluyendo a OpenAI, Amazon, Google, Meta o Microsoft, pero hay una gran ausencia: Apple, que (inexplicablemente) no parece pronunciarse al respecto.
¿Dónde están las etiquetas de IA? A pesar de que la tecnología de etiquetado está ahí, no acaba de ser utilizada ampliamente. Hay casos aislados: Meta comenzó a etiquetar imágenes en Instagram o Facebook, pero está teniendo problemas para realizar ese etiquetado, que se intenta aplicar a contenidos ya publicados. YouTube también ha dado pasos en ese sentido y Google comienza a implementarlo en su buscador y sus anuncios. Hasta fabricantes como Sony o Leica etiquetan sus fotos en algunas de sus cámaras.
Etiquetarlo todo, esté o no hecho con IA. Lo ideal (¿la utopía?) sería que cualquier contenido estuviera etiquetado de dos formas: o está hecho con asistencia de IA, o es un contenido en el que la IA no ha ayudado. El ejemplo perfecto lo tenemos en las apps de cámara de nuestros móviles con Android o iOS: esas imágenes y vídeos deberían estar etiquetadas con algo similar a un «contenido sin IA», por ejemplo. Es lo que plantean las cámaras de Sony o Leica, pero impone un problema enorme para todo el segmento hardware y software.
Necesitamos que la adopción se dispare. Las empresas parecen tener claro que algo así es necesario y razonable, pero ponerlo en marcha está siendo un proceso especialmente largo y complejo. El etiquetado criptográfico es probablemente la mejor opción para evitar que los deepfakes se conviertan en una amenaza aún más importante, pero aquí hay un paso decisivo: que las empresas adopten estas medidas. Aunque sea poco a poco.
En Xataka | Las empresas de IA llevan años saltándose a la torera el copyright. Acaban de sufrir una inquietante derrota legal
– La noticia
El Gobierno de España quiere que todo el contenido IA lleve una «etiqueta». Suena muy bien, pero es un reto tremendo
fue publicada originalmente en
Xataka
por
Javier Pastor
.