Au cours des dernières années, l’intelligence artificielle est sortie des laboratoires et des milieux académiques pour entrer de manière décisive dans des territoires qui semblaient exclusivement humains.
L’un de ces éléments est la musique. Autrefois symbole suprême de l’émotion, de l’intuition et de l’unicité artistique, aujourd’hui la musique se retrouve à faire face – et, de plus en plus souvent, à collaborer – avec des modèles mathématiques, des réseaux neuronaux et des logiciels capables d’apprendre, de créer et même d’émouvoir.
Mais qu’est-ce que cela signifie, concrètement, « faire de la musique avec l’AI » ? Et quels artistes ont décidé d’embrasser cette nouvelle dimension ?
Composition automatique et assistée : l’IA comme co-auteur
Certaines applications, comme AIVA ou Amper, sont capables de composer des morceaux originaux à partir de quelques entrées : un genre musical, une humeur, quelques instruments de référence. Le résultat ? Une musique instrumentale convaincante, parfois surprenante, utilisée pour des bandes sonores, des publicités ou des contenus en ligne.
IA et découverte musicale
Ce n’est pas un hasard si des productions musicales générées entièrement par une IA existent déjà, comme le morceau “Daddy’s Car”, conçu par le laboratoire de recherche de Sony et inspiré par le style des Beatles. Si on l’écoute sans rien savoir, on pourrait penser à un groupe pop nostalgique et talentueux, pas à un algorithme.
D’autres projets, en revanche, vont plus loin, cherchant à imiter la voix et le style d’artistes réels. Le système Jukebox, développé par OpenAI, est capable de générer des chansons avec des paroles, de la musique et des voix qui rappellent – de manière inquiétante – des chanteurs existants. C’est une technologie qui fascine et effraie en même temps, surtout parce qu’elle soulève des questions profondes sur l’authenticité, le droit d’auteur et l’identité artistique.
Artistes qui expérimentent avec l’IA
Mais l’IA n’est pas seulement une simulation. Pour certains artistes, c’est un outil de co-création. Holly Herndon, par exemple, a développé une “fille vocale” appelée Spawn, une intelligence artificielle entraînée à chanter et composer avec elle.
Le résultat est un album, PROTO, qui explore ce que signifie faire de la musique avec une machine sensible. Il ne s’agit pas de déléguer la créativité, mais de l’amplifier, de la faire dialoguer avec une intelligence autre.
Même l’artiste Taryn Southern a publié un album entier, I AM AI, produit en collaboration avec des systèmes d’intelligence artificielle. Ce n’était pas une provocation, mais une expérience consciente pour comprendre où finit la main de l’humain et où commence celle de l’algorithme.
Enfin, récemment, un nouveau groupe, les Purple Atlas, a publié un nouveau morceau sur Spotify, “Writing Love Instead” créé avec l’IA, même si les paroles des chansons sont composées par les membres du groupe eux-mêmes. C’est peut-être ici que s’insère la création artistique : l’IA est utilisée comme un outil pour une fin, la composition musicale, mais toujours contrôlée par l’humain.
IA et mixage musical
La transformation, però, non riguarda solo la composition. Les technologies AI sont de plus en plus présentes dans la phase de production, mixing et mastering.
Des plateformes comme LANDR permettent à quiconque d’obtenir un mastering professionnel en quelques clics, tandis que des plugins intelligents comme ceux d’iZotope analysent en temps réel les fréquences d’un morceau pour suggérer des corrections et des optimisations. C’est un changement qui démocratise la production musicale, en abaissant les barrières économiques et techniques.
Et puis il y a la voix : synthétique, artificielle, souvent indiscernable de la vraie. Les logiciels vocaux comme Vocaloid ou Synthesizer V permettent de créer des chanteurs virtuels, dont certains – comme la célèbre Hatsune Miku – ont des fans dispersés dans le monde entier et se produisent en tournée à guichets fermés… comme s’ils étaient réels.
Mais la frontière entre expérience et tromperie devient mince lorsque commencent à circuler sur TikTok ou YouTube des chansons “inédites” des Nirvana ou de 2Pac, reconstruites numériquement, sans consentement, sans contexte.
En parallèle, les plateformes de streaming utilisent des modèles prédictifs pour suggérer des chansons aux utilisateurs avec une efficacité presque inquiétante.
Algorithmes et déshumanisation
Algorithmes qui analysent nos goûts, nos états d’esprit, voire les moments de la journée, pour anticiper ce que nous voudrions écouter. Et de plus en plus souvent, les artistes et producteurs commencent à composer en tenant compte de ces critères : durée des morceaux, bpm, type d’intro. Comme si, en plus du public, il fallait aussi convaincre l’algorithme.
Il y a ceux qui voient dans tout cela une dérive déshumanisante. Ceux qui craignent que l’art soit réduit à un produit, que la créativité soit compressée en un output calculable. Mais il y a aussi ceux qui considèrent l’IA comme une nouvelle muse : un moyen de surmonter le blocage créatif, d’explorer des sonorités inédites, de collaborer avec l’inimaginable.
La musique du futur ne sera pas seulement écrite pour les êtres humains, mais peut-être aussi avec les machines.
Il ne s’agit pas de choisir entre humain et artificiel, mais de comprendre comment coexister. Comme toujours, ce qui comptera vraiment sera l’intention : s’il y a une vision, une émotion, une histoire à raconter, peu importe si le compagnon de voyage est fait de chair ou de code.

