Une brève histoire de la Musique Assistée par Ordinateur

De l’ingénieur Pierre Schaeffer au rappeur Vald, l’informatique et les machines électroniques ont ouvert à la musique des territoires immenses.
Une brève histoire de la Musique Assistée par Ordinateur

L’informatique et les machines électroniques ont ouvert à la musique des territoires immenses depuis le début du XXème siècle. Si aujourd’hui, la Musique Assistée par Ordinateur (MAO) a rendu des groupes mythiques, l’intelligence artificielle pourrait participer à faire entrer la musique dans une nouvelle ère : celle des biens de consommation.

Changer l’électricité en musique ! C’est, à partir de la fin du XIXème siècle, la promesse de l’utilisation d’étranges machines, sorties des laboratoires d’inventeurs qui devaient paraître, à l’époque, un peu fous. Peu à peu, les fous se sont transformés en précurseurs, les précurseurs en artistes, et, parfois même, les artistes, munis de leurs machines à transformer cette force naturelle en son, sont devenus des stars. C’est l’histoire de la musique électronique et assistée par ordinateur.

Lénine plus fort que les Beach Boys

Dès 1897, Thaddeus Cahill invente le telharmonium, un instrument électromécanique de sept tonnes considéré comme l’ancêtre du synthétiseur. L’inventeur américain produit quasiment les premières notes de musiques ne provenant pas d’instruments acoustiques, et connaît un franc succès à New York dans les années 1900. Mais la Première Guerre Mondiale laisse les préoccupations musicales électriques de côté, jusqu’à ce que, sur le Vieux Continent, un Russe, Léon Theremin, invente le Thérémine. Dans les années 1920, ils sont nombreux à s’essayer sur ce boîtier aux deux antennes qu’il faut dompter sans le toucher, en interférant avec les ondes électriques. Imaginez maîtriser les grésillements d’un transistor….

Lénine lui-même aurait pris des cours avant d’envoyer son inventeur en tournée mondiale pour vanter les mérites industriels de la nouvelle Russie. Le Thérémine a inspiré un autre artiste, Paul Tanner, pour les chœurs dans la célèbre chanson Good Vibrations, des Beach Boys. 

Et la musique électronique fut

Les années 1950 marquent une nouvelle étape : pour transformer des volts en notes, les chercheurs-musiciens composent des programmes d’ordinateurs qui jouent eux-mêmes des morceaux. En 1951, l’Université de Manchester résonne de ce premier genre de notes. Et en 1957, dans les mythiques Bell Labs, un certain Max Mathews met au point MUSIC 1, un programme de musique pour l’IBM 704 (un monstre de 20 mètres cubes à plusieurs millions de dollars). Dans les années 1960, Mathews perfectionnera son invention qui permet de définir d’une part un type de son, l’équivalent de l’instrument, et d’autre part, les notes et leur hauteurs, c’est-à-dire la partition.

Dans le même temps, la musique électronique jouée directement par l’humain se développe aussi. En 1958, Pierre Schaeffer créé le Groupe de Recherches Musicales (GRM) en France dans les locaux de l’ORTF. Avec ses équipes, sur des machines tentaculaires, tout en fer et en câbles, il explore les formations et déformations des sons, dans une démarche autant expérimentale que artistique. Aujourd’hui, le GRM développe toujours les GRM tools, un ensemble de plug-ins pour forger du son.

Un autre laboratoire musical, l’IRCAM, voit le jour en 1970 sous l’impulsion de George Pompidou et de Pierre Boulez. Ce dernier élabore à la fois des composants électroniques et des oeuvres : Répons, un orchestre de musique de chambre incluant un ingénieur du son, sera la plus emblématique.

Naissance du synthé

De l’autre côté de l’Atlantique, en 1964, le premier synthétiseur Moog (prononcer « Môgue », du nom de son inventeur, Robert Moog) est commercialisé, suivi en 1968 du modulaire Moog, et en 1970 du Mini Moog, sa version réduite. Icônes des années 1970–1980, les synthétiseurs modulaires reprendront d’ailleurs leur place dans de nombreux studios après 2010 et Apple créera aussi une app reproduisant le Mini Moog en 2018.

Mais à l’époque, la musique sortie de ces synthétiseurs reste encore marginale. Premier pas vers une démocratisation, Wendy Carlos compose en 1971, la musique du film de Stanley Kubrick, Orange Mécanique. Plusieurs inventeurs vont, eux aussi, donner à la musique électronique les moyens de se répandre. En 1983, des concepteurs de « synthé » créent la norme MIDI. C’est la première interface dédiée à la communication entre appareils de marques différentes.

Wendy Carlos, compose la musique d'Orange Mécanique en 1971.

 L’obstacle du coût disparaît aussi peu à peu. La sortie conjointe de l’ordinateur Atari ST en 1985 et du logiciel Cubase en 1989 divise environ les prix par trois. Cubase, créé par les allemands de Steinberg Media Technologies, intègre la nouvelle organisation visuelle en pistes les unes au dessus des autres, et avec une timeline horizontale.

Steve Jobs, Rihanna et Vald

Dans les années 1990, la sortie de « systèmes tapeless » (lorsque tout le processus, de l’enregistrement à la diffusion de pistes audio ou vidéos, est entièrement supporté par des outils numériques et ne fait pas appel à des cassettes) rend encore plus facile le transfert de la musique. On peut désormais enregistrer du son directement sur un disque dur sans passer par un CD ou une cassette, comme avec le logiciel Pro Tools sur Macintosh, dès 1991.

Renversement complet, les années 2000 marquent l’avènement de l’ordinateur, qui, auparavant minoritaire dans la musique, devient incontournable dans le processus créatif. Et tout le monde s’y essaye, bien aidé par un des papes de la démocratisation de l’informatique : Steve Jobs. Le 6 janvier 2004, il annonce la sortie de Garage Band lors d’une de ses célèbres conférences. T-Pain, Rihanna, Fall Out Boy, et beaucoup d’autres artistes mondialement connus utiliseront ce logiciel, qui fera des petits. Ces outils rapprochent les artistes de leurs fans, qui peuvent désormais composer des instrumentales pour des rappeurs. En France, Seezy a ainsi réalisé le beat du morceau Vitrine de Damso et Vald.

Mélenchon, pas le premier hologramme sur scène

Mais la MAO va plus loin. Après le son, c’est l’artiste que pénètre le silicium. Avant 2pac en 2012 et Jean-Luc Mélenchon en 2017, l’hologramme Hatsune Miku, personnage virtuel créé par Yamaha et la société Crypton Future Media à l’origine destinée à être l’héroïne de jeux vidéos musicaux, fait ses premiers pas sur scène au Japon dès 2009. Depuis, elle donne des concerts réguliers, devant des fans tout aussi hystériques que devant une personne humaine.

Hatsune Miku sera peut-être bientôt autonome dans le choix de ses compositions, car l’intelligence artificielle entre en jeu. En 2016, les SONY CSL Research Lab créent le morceau Daddy’s Car et ressuscitent les Beatles (ou du moins leur style) en ayant nourri l’intelligence artificielle avec leur discographie entière afin de lui faire reproduire les mimiques musicales du groupe de Liverpool.

Première grande major à se lancer dans le bain de l’IA, Warner Music signe en 2019 un contrat avec Endel pour 20 albums. La start-up a développé un algorithme qui crée des morceaux (des « soundscapes » dans leur jargon, qu’on pourrait traduire par « paysages audios ») avec un but nouveau, dépassant la « simple » création artistique. Leur musique augmenterait les possibilités du corps, pour en améliorer les capacités de relaxation ou de concentration par exemple. Ils annoncent ainsi pouvoir multiplier la concentration au travail de l’auditeur par 6,3. Alors, demain, l’intelligence artificielle, en industrialisant la production musicale, finira-t-elle par lui donner une utilité pratique, presque banale ?

SUR LE MÊME SUJET : 

> Comment la musique peut doper notre cerveau

> Comment les algorithmes entretiennent l’illusion de répondre à nos goûts musicaux

> « Le futur de la musique, c’est la fin du Far West sur Internet »

Image à la Une : Unsplash

et aussi, tout frais...