
En los últimos años, la Inteligencia Artificial se ha convertido en una herramienta principal en los diferentes sectores económicos, ya que el desarrollo de esta tecnología ha hecho que tenga una capacidad a la hora de crear textos, imágenes, y contenido audiovisual con un mayor realismo, pero también presenta riesgos en materia de desinformación, manipulación y pérdida de confianza en los ciudadanos.
En 2024 la Unión Europea aprobó el Reglamento Europeo de Inteligencia Artificial (AI Act), regulando esta tecnología, una de sus medidas más destacadas, y que más relevancia tendrá en empresas y organizaciones, es la obligación de etiquetar los contenidos generados o modificados por IA a partir del 2 de agosto de 2026.
En este artículo analizamos qué implica esta obligación, a quién afecta, cuáles son las consecuencias de incumplirla y qué pasos deberían dar las empresas desde ahora para prepararse.
¿EN QUÉ CONSISTE ESTA OBLIGACIÓN? Y POR QUÉ SE IMPONE.
A partir de agosto de 2026 todas las empresas que usen inteligencia artificial para crear o modificar contenidos ya sean textos, imágenes o contenido audiovisual tendrán la obligación de indicar de forma evidente que el material que visualizan no ha sido producido de manera completa por una persona, sino que ha sido creado con ayuda de una máquina, además de lo anterior, se exigirá también un marcado técnico que las máquinas puedan leer como metadatos o marcas digitales lo que permitirá identificar y rastrear la autoría
Esta obligación es de especial relevancia, sobre todo de cara a los llamados deepfakes y en contenidos que, al no llevar una advertencia clara, pueden inducir a error a los usuarios, creyendo que el contenido es real. Por ejemplo, a día de hoy es habitual la creación de vídeos que estén manipulados en el que aparezcan una figura pública diciendo o haciendo algo no ha hecho, o imágenes creadas a través de IA que pueda ser expuesta como si fueran fotografías reales. Incluso también se puede dar en artículos o texto redactados de manera completa por IA, o audios que puedan imitar la voz de una persona.
Pero no todo uso de la inteligencia artificial implica la obligación de etiquetar. Ya que, si la intervención de esta tecnología es mínima, como puede ser las correcciones ortográficas o ajustes gramaticales, no será necesario. Tampoco será necesario cuando el contenido esté creado por una editorial real, como puede ser la prensa, ya que hay una revisión y control humano.
RIESGOS LEGALES Y SANCIONES POR EL INCUMPLIMIENTO
El Reglamento establece un régimen sancionador, cuyo objetivo es garantizar la transparencia y proteger a consumidores, usuarios y terceros frente a posibles riesgos derivados de la falta de información. Por ello, aquellas empresas que no cumplan con el deber de etiquetar sus contenidos pueden enfrentarse a lo siguiente,
- Multas administrativas, las cuales pueden alcanzar cifras elevadas, y serán calculadas en relación de la gravedad de la infracción y del volumen de negocio de la empresa infractora.
- Acciones legales por daños y perjuicios, en los casos en los que la omisión del etiquetado genere consecuencias negativas para terceros, las empresas podrían ser responsables civilmente y afrontar reclamaciones judiciales.
Aparte de las consecuencias jurídicas y económicas, que se deriven del incumplimiento, otro de los riesgos a los que se enfrenta las organizaciones y empresas, es la pérdida reputacional, ya que afecta en la confianza de los consumidores y clientes, la falta de transparencia en este aspecto puede dañar la imagen corporativa, puesto que se ha consolidado como un valor estratégico en la era digital.
MEDIDAS RECOMENDADAS QUE LAS EMPRESAS DEBERÍAN TOMAR.
Aunque, dicha obligación se implementara en su totalidad en 2026, las empresas tiene el deber de anticiparse para garantizar el cumplimiento normativo y reducir riesgos legales.
Las medidas que se deberían tomar por parte de las empresas, sería en primer lugar una auditoria sobre los procesos internos para determinar en que medida se utiliza la IA a la hora de crear o modificar los contenidos. En un segundo lugar, sería la implementación de sistemas de etiquetados que fueran visibles para los usuarios y que sea detectado por las máquinas, creando así una transparencia y confianza.
Además, de lo anterior también es recomendable que las empresas den formación al respecto, para capacitar a los equipos de comunicación y marketing, y que sean capaces de identificar los contenidos generados por IA. Otra de las medidas a tener en cuenta, es la de revisar contratos y políticas internas, delimitando de esta manera responsabilidades y estableciendo mecanismos que eviten posibles incumplimientos legales.
CONCLUSIÓN
En conclusión con lo expuesto anteriormente la obligación de identificar contenidos generados mediante inteligencia artificial, que entrará en vigor en 2026, no debe considerarse únicamente como un requisito legal, sino también como un mecanismo para fortalecer la confianza de consumidores y usuarios en un entorno digital cada vez más complejo y regulado.
Las empresas que adopten medidas preventivas y adapten sus procesos internos a esta normativa no solo minimizarán riesgos legales, sino que también proyectarán una imagen de transparencia, diligencia y responsabilidad en el uso de tecnologías emergentes, cumpliendo con los estándares de buena gobernanza corporativa.