IA : les logiciels musicaux historiques sont-ils condamnés à disparaître ?

Alors que les plateformes de génération musicale par intelligence artificielle gagnent en popularité et se légitiment, la place des acteurs emblématiques de la MAO tels que Logic, FL Studio, ou Ableton Live est remise en question.
logo plateforme création musicale Suno

En novembre dernier, Deezer révélait que plus de 50 000 titres entièrement générés par intelligence artificielle sont livrés quotidiennement sur la plateforme, soit plus d’un tiers des nouveautés mises en ligne chaque jour.

Bien que ces morceaux ne représentent encore qu’une part marginale des écoutes, leur simple existence marque un tournant. Avec des outils capables de générer un titre en quelques secondes, les compositeurs peuvent désormais choisir de se tourner vers ces derniers au détriment des logiciels traditionnels de musique assistée par ordinateur (MAO).

Soulevant une question qui aurait encore été impensable il y a seulement quelques années : les logiciels en vogue depuis la fin des années 80 seraient-ils en passe de devenir obsolètes ?

Une promesse ambitieuse

« La plupart des gens n’apprécient pas la majorité du temps qu’ils passent à faire de la musique. » déclarait début 2025 Mikey Shulman, CEO de Suno, pour justifier le succès de la plateforme pour le podcast 20VC.

Lancée fin 2023, cette dernière s’est rapidement imposée, aux côtés d’Udio, comme l’une des figures de proue de l’IA générative musicale, qui a vu se multiplier le nombre de start-ups, proposant des solutions taillées sur mesure pour chaque phase du processus de création.

Leur ambition est claire : démocratiser et accélérer la production musicale.

« Notre utilisateur type est un passionné de musique qui n’en a jamais créée, mais qui en a envie », explique le CEO d’Udio, Andrew Sanchez, à Billboard. « Il attendait simplement qu’on lui fournisse les outils pour. »

Longtemps en conflit judiciaire avec l’industrie musicale pour les possibles infractions au droit d’auteur qu’elles engendrent, ces plateformes sont aujourd’hui progressivement légitimées par certains de ses acteurs les plus importants. En témoignent les récents partenariats conclus avec les majors, ou encore l’adoption assumée de ces outils par des producteurs comme Timbaland.

De l’autre côté, les logiciels historiques font désormais face à un risque nouveau, que leur utilisation devienne facultative.

Visions opposées du processus de création

Les expériences créatives les plus fortes naissent de la persévérance, de la curiosité et d’une maîtrise construite dans le temps. Si la musique ne nous demande plus rien, elle risque de perdre ce qui la rend profondément transformatrice.

Lillia Betz, Head of AI R&D chez Ableton

Les acteurs traditionnels de la création musicale se placent en contrepoint et défendent une vision plus exigeante, et donc plus lente, de la création musicale.

« La difficulté et l’effort ne sont pas des dysfonctionnements », explique Lilia Betz, Head of AI R&D pour Ableton, éditeur emblématique né en 1999. « C’est d’ailleurs souvent ce qui donne du sens à une pratique. Les expériences créatives les plus fortes naissent de la persévérance, de la curiosité et d’une maîtrise construite dans le temps. Si la musique ne nous demande plus rien, elle risque de perdre ce qui la rend profondément transformatrice. »

Une position que rejoint le compositeur et beatmaker Cosmo, parmi les premiers concernés par ces changements de processus. « Dire que ce n’est plus agréable de faire de la musique est insensé et, surtout, complètement faux. C’est créer un problème qui n’existe pas et inventer une solution en conséquence, en plus de discréditer les producteurs par la même occasion. Avec la multitude de ressources gratuites qui existent aujourd’hui, il est osé de dire que ça demanderait trop d’efforts. »

Pour autant, le producteur ne se cache pas d’utiliser certaines fonctionnalités proposées par ces plateformes génératives.

Une adoption prudente

D’après une étude conjointe de la SACEM et de la GEMA en 2024, 35% des créateurs avaient déjà utilisé des fonctionnalités génératives dans leur travail. Ce chiffre grimpait même à 51% pour ceux âgés de moins de 35 ans.

Cet usage reste pourtant encore tabou : « Dans mon entourage, je suis plutôt le seul qui va parler d’IA, du fait que ça peut parfois faciliter des tâches. » confie Cosmo.

Alors que les plateformes génératives ne permettaient initialement que de repartir avec un fichier .mp3 finalisé, elles proposent désormais aussi la possibilité de récupérer individuellement les pistes qui composent le morceau généré.

Bien que sceptique face aux ambitions productivistes de la plateforme, le producteur avoue s’être essayé par curiosité à Suno : « Avec un abonnement, que je paie environ 10 euros par mois, j’envoie à la plateforme ce que j’ai fait sur mon logiciel en lui demandant de l’améliorer. Si j’estime qu’il y a des éléments intéressants parmi les éléments qui me sont proposés, je récupère uniquement ceux-là. »

Sans l’utiliser pour générer des productions intégralement artificielles, il admet que certaines fonctionnalités se révèlent utiles : « Parfois, je peux avoir une idée, mais il me faut un son en particulier que je ne suis pas en mesure de reproduire parce qu’il faut des instruments. […] Je l’utilise aussi pour créer des samples, parce qu’il reste très compliqué de clearer des samples existants. »

Pour François Pachet, ancien directeur du Spotify Creator Technology Research Lab et du Sony Computer Science Laboratory, ces outils jouent également un rôle inédit dans les dynamiques de collaboration : « Les plateformes IA permettent de résoudre des différends entre les personnes qui financent la production artistique et celles qui la réalisent. Plusieurs propositions peuvent être générées instantanément pour permettre aux deux parties de mieux se comprendre et de s’accorder sur un but commun. »

Des tâches moins visibles, et d’habitude plus fastidieuses, peuvent également bénéficier de ces outils génératifs : « L’IA sert désormais à séparer les stems (les différentes pistes qui composent un morceau), ce qui est fondamental et a révolutionné le secteur. De même, on peut également s’en servir pour faire ce qu’on appelle la déréverbération (enlever la réflexion du son dans l’espace), ce qui était auparavant impossible. » affirme le scientifique.

Limites techniques et artistiques

Malgré ses performances, l’IA se heurte à des limites concrètes. « Pour l’instant, les plateformes comme Suno et Udio génèrent malgré elles des sons assez reconnaissables qui laissent transparaître qu’il s’agit de morceaux artificiels. » d’après Cosmo, qui ne propose d’ailleurs jamais de production intégralement générée artificiellement.

Une limite directement liée à leur fonctionnement. En effet, les systèmes de génération artificielle « sont entraînés sur du son, pas sur des partitions. » décrit François Pachet. Leur objectif n’est pas de composer, mais de produire des signaux à partir de morceaux existants.

Pour le chercheur, également compositeur, cela limite la possibilité d’utiliser les productions générées par les plateformes pour un usage professionnel : « Pour des professionnels, avoir des champs sonores aussi réduits que ce que Suno propose est inacceptable. »

Chez Ableton, le constat est similaire : « Les contextes professionnels exigent de l’intention, de la révision et une responsabilité artistique. La majorité des morceaux générés par IA nécessitent encore un travail approfondi en MAO pour atteindre un niveau professionnel. »

Une logique résumée simplement par Cosmo : « Les gens qui n’ont pas de budget ou de connaissances vont logiquement se tourner vers ces outils, qui donnent un résultat acceptable très rapidement. »

Une distinction moins évidente qu’il n’y paraît

Ce n’est pas parce que les gens ne font pas la différence que la musique produite artificiellement est de bonne qualité. Ça ne prouve pas que l’IA est aussi bonne que les humains. Ça prouve plutôt que l’IA est aussi mauvaise que ce qui sort aujourd’hui.

François Pachet

Pour autant, une étude internationale menée par Ipsos pour Deezer auprès de 9 000 personnes, révèle que 97 % des auditeurs seraient incapables de distinguer une musique générée par IA d’un morceau composé par un humain. À cela s’ajoutent des projets entièrement artificiels qui rencontrent un succès inattendu, à l’image de The Velvet Sundown, groupe généré par IA qui a atteint un pic dépassant le million d’auditeurs mensuels sur Spotify, ou alors de la reprise IA de Papaoutai par mikeeysmind, qui atteint en janvier 2026 la 64ème place au Top Global de Spotify.

Pour François Pachet, qui étudie le sujet depuis une vingtaine d’années, si risque de remplacement des logiciels il devait y avoir, ce dernier découlerait avant tout de la standardisation des morceaux produits aujourd’hui : « Contrairement à ce que l’on peut penser, l’IA se nourrit non pas des œuvres elles-mêmes, mais de ce que les œuvres ont en commun. Les modèles IA fonctionnent uniquement parce que l’on produit beaucoup de choses qui se ressemblent. »

Et que le problème pourrait donc être résolu si les productions variaient davantage : « Vous ne pouvez pas entraîner un modèle d’IA avec des morceaux qui seraient tous très différents les uns des autres, ça ne marcherait pas. » poursuit-il. La solution selon lui serait donc de se concentrer sur les véritables origines du problème : les similitudes entre les musiques produites aujourd’hui.

Il identifie une première explication dans l’évolution du jugement des auditeurs quant à la qualité des morceaux. « Avant même que l’IA arrive, il y avait déjà un problème : la musique est de plus en plus orientée vers la production, et de moins en moins vers la composition. Ces dernières sont bien moins intéressantes que dans le passé, par contre, la production s’est énormément améliorée. Plus personne ne s’intéresse à la musique, à l’harmonie, à la mélodie, aux rythmes, ni même aux textes. Par contre, les gens sont très sensibles à la qualité de la production. »

Véritable révolution ou simple évolution ?

La crainte d’un remplacement des outils de création musicale n’a pas émergé avec l’intelligence artificielle. « Il s’agit simplement d’une évolution dans le monde de la musique comme il y en a toujours eu. Quand les logiciels de MAO sont arrivés, on disait déjà aux musiciens : “Vous ne faites pas de la vraie musique, vous ne faites que cliquer sur des ordinateurs”. De même quand l’autotune est arrivée. » déclare Cosmo.

Pour Lillia Betz, la question d’un possible remplacement par les nouveaux outils d’IA générative ne se pose pas non plus : ils ne remplissent pas les mêmes fonctions. « Des outils comme Suno ou Udio fonctionnent de manière descendante : on génère un résultat global, puis on l’ajuste. Ableton fonctionne de manière ascendante : on construit la musique à partir d’éléments fondamentaux, en façonnant chaque décision. Cette différence est autant philosophique que technique. »

Une question d’intention

À l’image du retour récent du vinyle, l’usage des logiciels emblématiques pourrait devenir une forme de culture plus marginale, mise de côté par les individus en quête d’efficacité et de production industrielle, mais toujours privilégiée par une minorité de créateurs qui s’intéressent avant tout à l’aspect épanouissant de la production musicale.

« Les raccourcis ont toujours existé », rappelle Lillia Betz, « mais les personnes qui veulent progresser ne cessent pas d’apprendre parce qu’ils sont disponibles. Le désir de maîtriser une compétence ne disparaît pas. »

Comme le notifie François Pachet, « des outils très classiques, comme GarageBand, qui ne sont pas forcément à la pointe technologiquement, gardent quand même une base d’utilisateurs fidèles. »

Pour les producteurs, l’utilisation ou non de certains outils peut également revêtir une dimension militante, comme pour Cosmo : « Je peux m’inspirer de ce que l’IA propose, mais pour des raisons éthiques, le rejouer ensuite dans mon logiciel si je souhaite l’intégrer à une production. »

Une perspective collaborative ?

Face à la montée en puissance de l’IA générative, la solution ne semble donc pas résider dans un rejet total, mais plutôt dans l’acceptation d’une possible complémentarité des outils.

Chez Ableton, cette position est assumée : le logiciel n’est pas fermé à l’intégration de fonctionnalités IA, lorsque cette dernière l’est « de manière à accompagner le musicien au moment où il prend des décisions […] sans lui retirer le contrôle.» Seraient donc bienvenus les outils qui « soutiennent l’exploration sans diluer l’auteur : la recherche sonore, la variation, l’assistance technique, les outils d’apprentissage. »

Parmi les premiers concernés, Cosmo expérimente déjà cette hybridation inédite sur ses logiciels habituels : « Aujourd’hui, avec les fonctionnalités IA, on peut séparer automatiquement les voix, les basses ou les instruments pour faire des remixs. FL Studio propose aussi des suggestions de samples générés aléatoirement, qui servent de point de départ pour commencer à travailler. »

Pour le producteur multi-platine, les plug-ins s’appuyant sur des fonctionnalités reposant sur l’intelligence artificielle constituent une autre porte d’entrée.

Pour autant, cette perspective de complémentarité entre logiciels et outils génératifs est encore incertaine. D’après les projections de la GEMA et de la Sacem, les créateurs pourraient voir leurs revenus diminuer de 27 % d’ici 2028, soit une perte totale de plus de 2 milliards d’euros liée à la montée en puissance des outils génératifs.

Des prévisions que François Pachet invite néanmoins à relativiser : « Toutes les prédictions en IA, qu’elles soient faites par des professionnels ou non, ont toujours été fausses, tout simplement parce qu’on ne sait pas du tout comment ça va évoluer. »