La relación entre música e inteligencia artificial generativa a debate en la XXII edición del Seminario Jurídico de AIE

Compatibilidad
Ahorrar(0)
Compartir
Celebrado la pasada semana en el Palau Macaya de Barcelona

La relación entre música e inteligencia artificial generativa a debate en la XXII edición del Seminario Jurídico de AIE

Autorización, transparencia, trazabilidad, remuneración y gestión colectiva, claves para los derechos de los artistas

23 de abril de 2026

Barcelona, 16 de abril de 2026.- “Puede que la IA no haga una copia de tu música, pero sí generar música idéntica y la legislación aún no afronta esa realidad”, señaló uno de los expertos reunidos por AIE en su XXII Seminario Jurídico en Barcelona. ¿Cómo proteger los derechos de los artistas cuando las herramientas legales para regular la inteligencia artificial generativa (IAG) no existen o son insuficientes? 

De esa y otras cuestiones debatieron en Barcelona el matemático e investigador Axel Brando; la profesora de la Universidad de Milán Raffaela Folgieri; el catedrático de Comunicación de la Universidad de Murcia Juan Miguel Aguado y la directora del área de Propiedad Intelectual de PONS IP Violeta Arnaiz, con la moderación de Cristina Armuña y José Luis Sevillano, jefa de área de Datos e Inteligencia de Negocio y CEO de AIE, respectivamente. Como broche de la jornada, el músico y productor Fernando Sancho realizó una demostración práctica de la creación de música con una herramienta de IAG. 

Un debate que va más allá de la tecnología  

El presidente de AIE, Luis Cobos, inauguró el seminario con un mensaje de bienvenida y puesta en situación que planteó el punto de partida del debate en términos prácticamente filosóficos: la tensión entre “creación e interpretación frente a generación” que, más allá de lo retórico, resume el núcleo del conflicto actual. Y advirtió del riesgo creciente de que los sistemas de inteligencia artificial, entrenados con obras de los creadores, los transformen en meros “especialistas en preguntar”, que dependan de máquinas entrenadas con contenidos que, en la mayoría de ocasiones, han sido utilizados sin autorización ni compensación. Y es que, señaló Luis Cobos, la IAG no solo plantea un problema económico, sino también cultural, pues cuestiona el valor mismo de la autoría en un entorno donde la producción puede automatizarse a partir de grandes conjuntos de datos. 

La subsecretaria de Cultura del Ministerio de Cultura, Carmen Páez, reconoció que las normas vigentes “se han mostrado incapaces” de dar respuesta a dos cuestiones clave: el uso de contenidos para entrenar modelos y la regulación de los resultados generados por estos sistemas. El problema, explicó, no es solo jurídico, sino estructural. La inteligencia artificial opera con una lógica global que desborda principios clásicos del derecho como el de territorialidad: “empresas que entrenan modelos fuera de la Unión Europea afectan a titulares de derechos dentro de ella, generando un vacío normativo difícil de gestionar”. 

El intento del Ministerio de Cultura de impulsar un sistema de licencias colectivas para el entrenamiento de IA no prosperó, pero el diagnóstico sigue vigente: sin mecanismos de autorización, remuneración y reconocimiento, el sistema corre el riesgo de erosionar la base económica de la creación cultural: “la IAG debe respetar el marco jurídico que ya existe, y que se basa en principios como los de autorización, reconocimiento, remuneración y trazabilidad, tanto en el input como en el output de los contenidos”, destacó Páez. 

Desde el Ministerio, aseguró la subsecretaria de Cultura, “se defiende que solo es posible desarrollar herramientas de IAG mediante el modelo de licenciamiento, en el que las entidades de gestión colectiva juegan un papel fundamental”. “También para vencer las asimetrías en los procesos de negociación, a fin de garantizar los derechos de todos los titulares, no solo de las grandes empresas u operadores”, concluyó. 

Entender la máquina para regularla 

Pero el seminario no se quedó en el plano jurídico. En esta edición, el enfoque dio un giro: antes de legislar, hay que entender cómo funcionan realmente estos sistemas. Y en este contexto, emergió un concepto clave: la trazabilidad. Saber qué obras han sido utilizadas para entrenar modelos y cómo influyen en los resultados se perfila como uno de los pilares de cualquier actualización de la regulación. 

El matemático e investigador Axel Brando que desmontó algunos de los mitos más extendidos sobre la inteligencia artificial. Su explicación, apoyada en fundamentos matemáticos, apuntó a una idea central: los modelos no “copian” en el sentido tradicional, sino que construyen funciones que transforman datos en resultados. Brando proporcionó una perspectiva técnica sobre la IAG, explicando conceptos complejos como los de inferencia probabilística, trazabilidad y atribución mediante la metáfora de una «malla» o superficie matemática. Explicó que determinar qué grabaciones han contribuido a la generación de música específica será probabilístico, no determinista, pero teniendo siempre muy presente que “la IA es infraestructura cívica y una tecnología de propósito general que está cambiando todo a nivel cognitivo”. 

Sin embargo, esa matización no elimina el problema. Como señaló, un modelo puede generar exactamente un contenido presente en su entrenamiento, no porque lo recorte y lo pegue, sino porque la función matemática que ha aprendido pasa por ese “punto concreto”. 

La implicación es profunda: la distinción entre copia y generación se vuelve difusa. Y con ella, los criterios jurídicos tradicionales para determinar infracciones de derechos de autor. Por este motivo, los retos de la IAG en relación con la propiedad intelectual son la atribución y la originalidad (“attribution and novelty”): como es imposible descartar que el contenido generado incluya datos de entrenamiento, es fundamental analizar en qué proporción los modelos los ofrecen en sus resultados para poder determinar cómo debe remunerarse su utilización.  

Brando propuso reformular el debate: en lugar de preguntar si la IA copia, habría que preguntarse si es posible garantizar que no reproduzca contenidos existentes en los conjuntos de datos con los que ha sido entrenada. Y no puede asegurarse completamente. Una realidad que la legislación para regular la IAG no puede obviar. 

El reto de la atribución y la “superficie infinita”  

Uno de los conceptos más sugerentes de cuantos se plantearon en la jornada fue la idea de que los modelos de IA funcionan como “superficies” moldeadas por los datos de entrenamiento. Cada obra utilizada ejerce una influencia —mayor o menor— en la forma final del modelo.  

Esto abre una vía alternativa al debate jurídico: la atribución probabilística. Es decir, desarrollar herramientas que permitan identificar qué contenidos han influido en un resultado concreto, aunque no exista una copia directa.  

No se trata de una solución sencilla: estos sistemas operan en espacios de dimensiones prácticamente infinitas, lo que dificulta cualquier intento de trazabilidad completa. Pero también se subrayó que la complejidad técnica no puede ser una excusa para la falta de responsabilidad en el desarrollo de la IAG. 

La creatividad bajo sospecha (y en redefinición) 

Desde una perspectiva más humanista, la intervención de la investigadora Raffaela Folgieri, profesora de IA y Ciencias Cognitivas en la Universidad de Milán, introdujo un matiz clave: la inteligencia artificial no es creativa en sentido estricto. Puede generar combinaciones, pero carece de intención, necesidad o experiencia. 

Esta diferencia, aparentemente teórica, tiene consecuencias prácticas. La creatividad humana no reside únicamente en el resultado, sino en la intención que lo impulsa. Y esa dimensión, argumentó, sigue siendo insustituible: “La creatividad no debe ser considerada únicamente en función del resultado final, porque se basa en las ideas, la intención, la chispa humana…  y eso no puede aportarlo la IA”.

Detalles de contacto
diego