La Inteligencia Artificial (IA) ya conquistó la palabra escrita y la imagen digital. Ahora, afina su oído y apunta al próximo escenario: la música. Lo inquietante es que, aunque se trata de algoritmos que encadenan notas con precisión matemática, logran algo tan terrenal como gestar acordes capaces de emocionar a quienes los escuchan.
Cada vez es más difícil para el oído distinguir el toque humano del artificial. Por este motivo, muchas plataformas están promocionando artistas imaginarios a los que siguen miles de fans. ¿Estamos ante el nacimiento de una nueva era musical o frente al ocaso del compositor clásico?
Los llamados modelos de difusión están impactando de lleno en los dominios creativos. Al transformar el ruido aleatorio en patrones coherentes, pueden generar melodías o videoclips guiados por indicaciones de texto u otros datos de entrada.
En enero de 2025 solo uno de cada diez tracks en Deezer era obra de una IA. Pero el ritmo creativo se aceleró y en la actualidad, se suben unas 20 mil canciones, casi el doble que hace apenas 6 meses atrás. Si nada frena esta tendencia, en dos años, las máquinas podrían dominar el 70% del catálogo musical.
El éxito de una banda sintética
Uno de los puntos ciegos de esta tendencia es la falta de transparencia. No existe un sistema que permita saber con certeza si lo que está sonando en la playlist fue creado por un robot o una persona.
No debería recaer en el oyente la responsabilidad de investigar el origen de cada canción: el acceso a los créditos debería estar disponible de forma simple, sin obligar a nadie a convertirse en detective musical.
La polémica se disparó cuando se supo que Velvet Sundown, la banda que en cuestión de semanas se había vuelto viral, con más de un millón de reproducciones en Spotify, no era real. Todo, desde sus canciones hasta las imágenes promocionales y la historia de fondo, había sido creado por un algoritmo.
El episodio encendió un debate sobre la autenticidad en la era digital. Expertos de la industria musical advierten que las plataformas de streaming deberían estar legalmente obligadas a etiquetar las canciones generadas por IA, para que los oyentes sepan con claridad qué están escuchando.
Tras ser caratulado como grupo revelación en varias revistas especializadas y algunas entrevistas con su vocalista, se descubrió, ante la falta de información convincente, que el grupo Velvet Sundown era un experimento de un copy & paste. Para evitar confusiones, Spotify, en la biografía los declaró como «música sintética».
El impacto no solo sacude las bases de la creación, sino que obliga a repensar conceptos como autoría, originalidad y derechos de propiedad intelectual. La pregunta ya no es si la IA puede hacer arte, sino cómo vamos a convivir con ella en los escenarios creativos del futuro.
Está más que comprobado que Spotify no siempre está dispuesto a etiquetar la música como generada por IA y en varias ocasiones fue criticado por distribuir listas de reproducción con música de “artistas fantasmas”.
Entre los casos más sospechados aparece Jet Fuel & Ginger Ales, una banda que ostenta la insignia de “artista verificado” y suma más de 414.000 oyentes mensuales. Sin embargo, no hay rastro de su existencia fuera de la plataforma, lo que alimenta el escrúpulo de que se trata de un producto de laboratorio.
No es el único caso. Grupos como Awake Past 3 y Gutter Grinders también han levantado polvareda: acumulan miles de fans, aunque sus voces suenan extrañamente artificiales, sus logotipos parecen salidos de una plantilla genérica y no existe información personal que ofrezca alguna pista.
Ofensiva legal contra la música
La industria musical acaba de lanzar una ofensiva legal contra Suno y Udio, las dos plataformas más innovadoras en la creación de música con IA. Un consorcio de sellos presentó una solicitud ante un tribunal federal de Estados Unidos, acusándolas de infringir derechos de autor a una escala que califican de “masiva”.
Es así como Sony Music, Warner Music y Universal Music, junto al resto de los demandantes nucleados en RIAA, ven factible que los “sonidos generados por máquinas” acaben compitiendo con aquellos que fueron creados genuinamente.
La industria musical aún carga con las cicatrices que dejó Napster y el auge de la música generada por IA vuelve a encender alarmas. Esta vez, la amenaza no viene de la piratería, sino de un nuevo tipo de competencia: canciones creadas por plataformas como Suno o Udio que pueden sonar peligrosamente parecidas a obras registradas, pero que no pagan regalías a nadie.
En este escenario, los modelos de negocio tradicionales enfrentan un dilema: cómo proteger el valor del contenido cuando la creación ya no depende de un artista, sino de un algoritmo.
Y si bien la masificación de estas aplicaciones abarataría los costes de producción –cualquiera podría convertirse en un artista exitoso- en el centro del debate flota una preocupación real: la sostenibilidad del mercado y la valorización del trabajo artístico.
En un universo saturado -donde se lanzan 100 mil canciones nuevas cada día- la irrupción de estas plataformas plantea un nuevo desafío ¿Cómo destacar entre voces que no respiran, pero suenan cada vez más humanas?
“Nuestra tecnología es transformadora; está diseñada para generar resultados completamente nuevos, no para memorizar y arrojar contenidos preexistentes. Por eso no permitimos instrucciones al usuario que hagan referencia a artistas concretos”, destacó Mikey Schulman, CEO de Suno, en un comunicado.
Los resultados que vienen exhibiendo Udio y Suno apuntan a una conclusión temeraria: existe un público cada vez más amplio al que no le importa si la música que escucha fue creada con una mano o por una aplicación.
En estas plataformas, algunos perfiles ya funcionan como verdaderas páginas de artista, con miles de seguidores y canciones generadas íntegramente con IA, acompañadas por retratos ficticios también producidos por algoritmos.
Pero detrás de esos proyectos no hay músicos tradicionales, sino personas que dominan las estrategias de mercado, curan estilos y ensamblan piezas imposibles de atribuir a un autor único. En este nuevo ecosistema, las nociones clásicas de autoría se desdibujan y la frontera entre creación y reproducción comienza a desvanecerse.
El método empleado por Suno y Udio está relacionado con el modo en que aprenden los humanos: absorbiendo datos. Su entrenamiento se basa en el análisis de miles de canciones de distintos géneros, estilos y épocas.
A partir de ese universo sonoro, detecta patrones, estructuras, armonías y los reutiliza para generar nuevas composiciones. En esencia, no es un mecanismo tan distinto al proceso humano que asimila escuchando, comparando y reconstruyendo lo que ya existe. La diferencia es que, en su caso, lo hace a una escala y velocidad fuera de serie.
A diferencia de una banda que compone por capas —primero el piano, luego las voces, después la batería—, un modelo de difusión no sigue un proceso secuencial. En lugar de construir parte por parte, genera todos los elementos de la canción en simultáneo.
Lo hace partiendo de una lógica visual: traduce la complejidad del audio a una forma de onda, una representación gráfica que muestra la amplitud del sonido en función del tiempo. Como estas formas —o sus variantes, como los espectrogramas— pueden procesarse como imágenes, se convierten en materia prima ideal para los modelos de IA.
El sistema se entrena con millones de fragmentos musicales etiquetados con descripciones, y luego hace el camino inverso: parte de un ruido aleatorio y, según las instrucciones del usuario, va “pintando” una nueva canción hasta que la forma de onda final cobra sentido. Así, lo que parece arte espontáneo es en realidad una reconstrucción estadística guiada por texto.
SL