
Las inteligencias artificiales generativas vulneran derechos de propiedad intelectual en España y Europa, principalmente porque el proceso de entrenamiento implica la reproducción masiva no autorizada de obras protegidas (imágenes, textos, diseños). Dicha reproducción constituye una infracción directa al derecho exclusivo de reproducción que contempla el artículo 18 de la Ley de Propiedad Intelectual (LPI), aplicable a cualquier soporte y forma, ya que los titulares no consienten ni controlan el uso de sus obras en el entrenamiento de modelos de IA. El marco regulatorio impone que cualquier copia, almacenamiento o transformación de una obra protegida necesita autorización previa, y la actividad actual de las principales herramientas de IA generativa vulnera esta exigencia.
Un estudio pericial del Parlamento Europeo (Dornis y Stober, 2024) confirma que la excepción de minería de textos y datos no es aplicable a la IA generativa, pues este entrenamiento implica tanto procesamiento semántico como memorización y reproducción (total o parcial) de creaciones originales, a diferencia de la minería de datos tradicional. La jurisprudencia reciente, como la sentencia del Tribunal Regional de Hamburgo (27/09/2024), rechaza que el entrenamiento de IA pueda ampararse en excepciones investigadoras porque reproduce obras más allá del uso estrictamente científico. Se suma el caso Thomson Reuters vs Ross Intelligence y dictámenes estadounidenses, que refuerzan la distinción entre creación humana protegida y resultados generados exclusivamente mediante IA, aumentando la presión regulatoria para protección efectiva.
El marco normativo europeo (Directiva 2001/29/CE y su transposición en la LPI) sólo reconoce protección a creaciones con autoría humana, excluyendo las generadas íntegramente por IA, aunque esta exclusión no libera a los desarrolladores de la obligación de obtener licencias para emplear obras protegidas en el entrenamiento. El Reglamento AI Act (UE 2024/1689), aplicable desde agosto de 2025, impone obligaciones de transparencia sobre los datos empleados y exige sistemas automáticos de «opt-out» para permitir a titulares prohibir el uso de sus contenidos, facilitando así la trazabilidad legal y la rendición de cuentas ante posibles infracciones. Se prevén mecanismos adicionales para que, si los proveedores incumplen las obligaciones de transparencia, se presuma el uso de obras protegidas en el entrenamiento, debiendo abonar remuneraciones y aceptar efectos retroactivos en la compensación a titulares de derechos.
La actual inseguridad jurídica y falta de transparencia dificulta la auditoría y el control, recargando la responsabilidad principal sobre los desarrolladores y proveedores de sistemas de IA, quienes deben garantizar legitimidad y autorización para el uso de las obras en el entrenamiento. Los usuarios pueden incurrir en infracción si explotan comercialmente contenidos generados con elementos protegidos, lo que fomenta litigios y reclamaciones, según advierte el Parlamento Europeo.
Las soluciones en debate incluyen la posibilidad de crear nuevos derechos «sui generis» para las inversiones en IA, reformas legislativas para reconocer aportaciones creativas humanas en el proceso generativo y sistemas técnicos de exclusión automática (opt-out), apuntando a un control regulatorio creciente y la obligación de registro, trazabilidad y supervisión para equilibrar la innovación tecnológica con la protección creativa. La tendencia del sector jurídico es clara: urge una adaptación normativa y la clarificación de responsabilidades y derechos en un entorno de rápida evolución tecnológica.
Uno de los casos más famosos respecto al uso no autorizado de imágenes para el entrenamiento de la IA es el del caso de Sora 2. La adopción y uso de la IA Sora 2 en el ámbito audiovisual resalta los conflictos prácticos en materia de propiedad intelectual, especialmente cuando emplea obras protegidas sin autorización de los titulares. Empresas como Nintendo y Disney han alertado sobre posibles reclamaciones legales ante la reproducción no consentida de personajes, imágenes y videos protegidos. Sora 2 permite generar vídeos y recrear escenas famosas, aumentando el riesgo de vulneración de derechos de autor, imagen y conexos.
A pesar de que Sora 2 implementa sistemas técnicos de moderación (opt-in, marcas de agua) para identificar y proteger derechos sobre personajes y figuras públicas, la generación masiva y automatizada dificulta la monitorización y la prevención total de infracciones. La falta de acuerdos efectivos con proveedores de licencias y titulares de derechos perpetúa un vacío legal y expone a desarrolladores y usuarios a reclamaciones y litigios. La normativa europea y española avanza hacia la obligatoriedad de obtener licencias o permisos previos y la implantación de sistemas automáticos para gestionar y bloquear contenido protegido.
OpenAI, responsable de Sora, anuncia controles más estrictos, mecanismos para permitir a los titulares gestionar sus permisos, limitar usos y recibir compensaciones para equilibrar innovación y protección legal.
Conclusión
Podemos decir que, la IA generativa en muchos de los casos que nos encontramos, si vulnera los derechos de propiedad intelectual al reproducir y utilizar obras protegidas sin autorización, pero el conflicto va más allá de la infracción legal. El sistema de propiedad intelectual fue diseñado para proteger la autoría humana individual, no para afrontar la creación automatizada y colectiva que introduce la IA. Pretender aplicar las mismas normas revela un vacío legal que es necesario actualizar, ya que respecto al marco tecnológico aún es inmaduro jurídicamente. Es necesario equilibrar innovación y protección, imponiendo transparencia en los datos de entrenamiento y modelos de licencias adaptados a la era digital. Más que frenar la tecnología, el reto consiste en civilizarla jurídicamente, garantizando que la creatividad artificial evolucione de forma ética y respetuosa con los derechos de quienes la inspiran.