Content uploaded by Roland Cahen
Author content
All content in this area was uploaded by Roland Cahen on Apr 20, 2020
Content may be subject to copyright.
Content uploaded by Roland Cahen
Author content
All content in this area was uploaded by Roland Cahen on Apr 20, 2020
Content may be subject to copyright.
Nouvelles extensions du domaine instrumental
Roland Cahen
De la musique cinétique aux dispositifs instrumentaux, des nouvelles
interfaces à la notion de topophonie, en passant par les programmes
audiographiques ou la synthèse granulaire, le compositeur
électroacoustique, designer sonore et enseignant Roland Cahen, dresse la
liste des recherches, des directions et des innovations qui ont transformé la
musique et la lutherie électronique depuis le début du 21e siècle.
Article de référence initialement publié dans le catalogue de l’Exposition
Electrosound . Machines, musiques & cultures
1
Directeur de rédaction Jean-Yves Leloup
Parution!:!19/05/2016 ISBN!:!9782360542048
(La présente version de l’article est une version auteur révisée en Avril 2020.)
!
La pratique de nombreuses musiques actuelles, que l’on évoque les
musiques électroacoustiques, électroniques ou parfois plus expérimentales,
se situent aujourd’hui dans un intervalle entre jouer et faire jouer. Entre d’un
côté, la musicalité et le mode de jeu des instruments traditionnels, et de
l’autre, les nombreux potentiels offerts par les logiciels, les contrôleurs MIDI, les
stations de travail audionumériques, ou plus simplement les platines et autres
lecteurs de fichiers.
Publié à l’occasion de l’exposition Electrosound organisée à Paris à l’Espace Fondation
1
EDF, Electrosound, le livre, à la fois catalogue et ouvrage historique de référence, se
consacre à l’évolution, aux usages, aux courants et aux esthétiques de la musique
électronique. Tout comme l’exposition, il balaie un large spectre des musiques
électroniques, allant de 1945 à nos jours, des pionniers et chercheurs de l’après-guerre
jusqu’au triomphe actuel et populaire de l’electro. À travers le prisme des instruments ou
des technologies comme le home-studio, les premiers sampleurs, les synthétiseurs Moog,
le MIDI, le logiciel Ableton Live, les firmes Roland ou EMS, le circuit-bending et le do it
yourself, sans oublier les dernières recherches en matière de spatialisation et de
traitement du son, les textes du catalogue évoquent la manière dont chacun de ces outils
se révèle emblématique d’une époque, d’une esthétique, d’un contexte sociotechnique,
de la pratique des artistes et des ingénieurs qui ont façonné la musique électronique du
XXe et XXIe siècle.
!
Contrairement aux instruments classiques, les dispositifs électroniques
n’obligent plus le musicien à produire un effort physique pour jouer chaque
note. Cette différence, apparemment ténue, constitue une véritable
révolution et remet en question, au-delà du seul aspect de la lutherie, les
fondements esthétiques ou économiques de la musique et de l’expérience
sonore.
La fin du règne de la note!: l’unité en question
Alors que l’unité musicale classique est la note, celle qu’on peut écrire sur
une portée et jouer ensuite sur un instrument (classique), l’unité musicale des
instruments électronique est toute autre. Pierre Schaeffer en inventant
l’«!Objet Sonore !», faisait entrer dans la musique tous les sons enregistrés
2
pourvu qu’ils aient un début et une fin dans un cadre «!convenable!» . C’est
3
à dire une seule unité sonore, ni trop courte pour être perçue, ni trop longue,
ni trop complexe. Alors que le compositeur électroacoustique assemble par
montage et mixage des «!objets sonores!», le générateur sonore à la base
des synthétiseurs «!pisse!» du son continu comme le robinet, de l’eau. Il s’agit
alors d‘en contrôler le flux, en faisant varier ses paramètres sonores, à la
source ou en transformant le son qui en sort. Mais quelle est l’unité
élémentaire d’un flux!sonore ? L’instant «!t!» à l’état statique!? Un grain de
quelques millisecondes de son!? Le temps du geste instrumental!? Une
mesure ou une séquence!musicale toute formée ? On l’aura compris, la
sacro-sainte unité musicale de la note se débine!! On a cru pouvoir utiliser le
Le sample est la version anglo-américaine tardive de l’ «!Objet Sonore!» Sheafferien.
2
Schaeffer, Pierre. Traité des objets musicaux, essai interdisciplinaire. Paris : Éditions du
Seuil, 1977.
Le terme normatif et malheureux d’«!Objet convenable!»! utilisé par P. Schaeffer pour
3
désigner les objets sonores typiques, est encore aujourd’hui un sujet de plaisanterie dans
le milieu électroacoustique.
concept de «!geste musical!» pour désigner un élément sonore animé , mais
4
le mot geste est déjà associé aux actions corporelles de l’instrumentiste. On
sait que le choix d’une unité musicale détermine fortement le résultat
expressif, qu’il s’agisse d’un sample , d’une boucle, d’une pulsation, d’une
5
pédale , d’une phrase évolutive, d’un motif ou d’une série. Mais la musique
6
d’aujourd’hui entend, et c’est tant mieux, ne se donner aucune limite et
utiliser n’importe quel corps étrangers comme brique de la création!:
éléments contextuels, sons corporels, défauts techniques,
télécommunications, hasard, etc. L’idée même d’élément unitaire de la
musique s’en trouve explosée, tout comme l’instrument qui la produit.
De la musique concrète au remix!: manipuler la matière sonore comme
des objets
L’idée de la musique concrète était de fabriquer la musique en
manipulant directement les sons fixés sur leur support , la bande magnétique
7
puis le fichier numérique. Le son était devenu matière et le compositeur
produisait ses formes avec des morceaux de sons comme un sculpteur avec
son bloc. L’acte de création devenait captation, manipulation, collage,
assemblage, diffusion. Le support devenait partie intégrante de la création,
l’enregistreur et l’ordinateur, les outils de fabrication. De nombreuses formes
musicales sont nées!de ces manipulations du support ; démarche opposée
de celles des instruments électroniques et des synthétiseurs. Les deux camps,
celui de la musique concrète et celui de la musique électronique
instrumentale se sont vivement affrontés entre 1950 et 1970, mais depuis que
UST (Unités Sémiotiques Temporelles) http://labo-mim.org/. Ensemble de figures
4
abstraites pour l’analyse musicale partant des modèles d’action énergétiques qui les
produisent.
Terme anglais pour échantillon sonore
5
Tenue continue, trame ou drone. (à ne pas confondre avec une pédale d’effet)
6
Comme décrit dans Chion, Michel. L’art Des Sons Fixés, Ou, La Musique Concrètement.
7
Fontaine : Editions Metamkine/Nota Bene/Sono concept, 1991.
les instruments manipulent les échantillons sonores et intègrent les outils du
studio, ce débat se perd dans une zone grise continue entre le jeu
instrumental et le travail de studio. Surtout depuis que la musique
électronique live à réussi à faire la preuve que le support est aussi un
instrument et inversement.
Comme dans la plupart des performances numériques interactives, il est
aujourd’hui devenu difficile de savoir ce que contrôle vraiment les
interprètes, à plus forte raison quand le vrai geste instrumental est invisible,
réenregistré ou incompréhensible. Le public s’y perd, les artistes raidissent
leurs positions, chacun voit midi à sa porte en défendant qui la musique de
studio, l’acousmatique, la musique instrumentale contemporaine,
l’électronique vintage, la performance live sans artifices ou la magie du
spectacle vivant. In fine, la diversité et les mélanges libres qui s’opèrent
semble être le meilleur garant de l’avenir de la musique.
De la synthèse au flux!: générateur et musique générative
Les générateurs sonores électroniques à la base des synthétiseurs
produisent un flux ininterrompu de son. Le musicien en contrôle les
paramètres, l’interrompt, en forme la dynamique, etc. Ce flux peut être lisse
ou structuré, simple ou complexe, fixé ou généré. Un des outils récents parmi
les plus puissants pour produire des flux contrôlables, est la synthèse
granulaire. Cette technique de production sonore consiste à arracher des
petits morceaux de quelques dizaines de millisecondes de son à un
échantillon quelconque, voix, musique, bruit… et de le réitérer à intervalle de
temps rapproché en modifiant les paramètres (vitesse, durée, hauteur,
position dans le temps du son d’origine). Ce jet d’atomes de sons génère
une pâte sonore malléable à merci. Chaque grain est un objet indépendant
qui se manipule comme un échantillon. Dès lors, les notes, les objets sonores,
les samples et le flux granulaire y fusionnent dans une approche orientée
objet, une vision atomiste de la programmation audionumérique et de la
pensée musicale. Une sorte de mécanique des fluides sonores. La synthèse
concaténative par corpus (CataRT), développée à l’Ircam par Diemo
Schwarz permet de sélectionner les grains selon leur contenu sonore, de les
disposer sur une palette de son et de les rejouer librement avec des
interfaces graphiques, à l’image de Dirti, une interface pour iPad réalisée à
partir de véritables graines (de tapioca!!), destinées à être manipulées par
l’utilisateur afin de contrôler un générateur de son en temps réel.
Du support à sa dématérialisation!: une nouvelle abstraction
À partir de 1990, lorsque les micro-ordinateurs permettent enfin de
manipuler en temps réel les fichiers audio, la bande magnétique, dont la
matière tangible permettait un rapport physique entre le musicien et le son,
une échelle fixe du temps, ainsi qu’une unité de support entre la prise de son
et sa diffusion, est définitivement rangée au placard. On ne travaille plus en
studio debout mais assis devant un écran, une main sur la souris et l’autre sur
8
un clavier de dactylo. Pas étonnant dès lors que les plus jeunes, rebutés
aujourd’hui par cette posture normative, retournent à l’analogique. Si les
sons, précédemment rangés et étiquetés sur des bobineaux de bandes ne se
présentent plus que sous la forme de titres et d’icônes, la recherche est
quant à elle facilitée, la quantité de sons accessibles instantanément
presque infinie et le temps nécessaire pour synchroniser les sons en multipiste
diminue d’un facteur cent. Quant à la durée musicale et la représentation
proportionnelle de la durée, autrefois fixes dans le cas de la bande
magnétique, elles deviennent beaucoup plus abstraites, car il est désormais
possible de zoomer sur n’importe quelle portion temporelle sur l’écran du
séquenceur.
Le compositeur Bernard Parmegiani parcourait environ 10 km à pied par jour entre la
8
console et les magnétophones du studio 116 de la maison de la radio.
L’objet sonore est à la fois devenu plus immatériel, mais aussi abstrait.
Comme dans le domaine du visuel 3D, la notion de rendu s’est également
développée et le même fichier audio peut se comporter très différemment
selon la manière dont il est traité. Autrement dit, sa manipulation s’est
diversifiée et l’on a assisté au développement de multiples plugins
9
permettant des transformations à la fois plus radicales et plus précises. Adieu
le collage hétéroclite de matériaux sonores disparates, bruts dans leur jus, et
bonjour la prise de tête dans le kaléidoscope des effets sonores. Les
traitements sonores permettent à la fois un contrôle expressif et une
continuité de variation quelle que soit le son d’origine. Ces manipulations
n’ont d’ailleurs plus rien de manuel, ce sont des programmes de traitement
numérique insérables dans les logiciels dits DAW (Digital Audio Workstation),
réalisés et commercialisés par des sociétés spécialisées en traitement du
signal. L’INA-GRM avec les GRM tools et l’IRCAM avec notamment Ircam
10 11
Tools, ont eux aussi produit leurs logiciels et plugins de traitement, qui sont
parmi les plus réputés. Ces contrôles sonores sont d’ailleurs tellement
immatériels et puissants qu’il a fallu parfois les re-matérialiser sous la forme
d’interfaces physiques-numériques. Ce qu’ont entrepris des créateurs
comme Maurin Donneau et Marco Marini avec leur interface textile ou
Chistophe d’Alessandro avec la synthèse vocale ou la visualisation des jeux
d’orgue. Dualo réinvente le clavier connecté en réconciliant les mains de
12
l’interprète avec la musique, grâce à une distribution intuitive et optimale
En informatique un plugin ou plug-in, aussi nommé module d'extension, greffon, ou
9
plugiciel au Canada, est un logiciel qui complète un logiciel hôte pour lui apporter de
nouvelles fonctionnalités. Le terme plugin provient de la métaphore de la prise électrique
standardisée et désigne une extension prévue des fonctionnalités. Les ajouts non prévus,
et initialement apportés à l'aide de correctifs, sont appelés des patchs.
Groupe de Recherche Musical de l’Institut National de l’Audiovisuel
10
Institut de Recherche et de Coordination Acoustique Musique
11
https://dualo.org/fr/
12
L’industrie des instruments électroniques, avec sa quête du son immatériel
et du son pur, produit malheureusement de plus en plus d’objets polluants,
énergivores ou rapidement obsolescents.
Des accès gestuels aux interfaces sensibles!: surfaces expressives
Les générateurs électroniques étant déconnectés de leurs interfaces de
jeu, la création de contrôleurs gestuels est très tôt devenue cruciale. Ces
interfaces ne produisent pas réellement de son, mais transmettent plutôt une
commande à un module de son, ou à un ordinateur, si bien qu’elles
deviennent ou incarnent l’instrument lui-même, vis-à-vis du musicien comme
du public. Dans les années 1970 on les appelait des accès, puis des
contrôleurs MIDI. Plus récemment, avec le développement des NIMES , ces
13
dispositifs se sont précisés et diversifiés, intégrant de nouveaux types de
capteurs, des algorithmes de filtrage puissants et réactifs et des modèles
d’expression sonores efficace et de qualité.
L’Équipe {Sound Music Movement} Interaction de l’Ircam a développé de
nouvelles méthodes d’analyse de geste, de couplage gestes/son et de
production sonore en temps réel, transformant n’importe quelle surface ou
objet, par exemple!: une simple planche de bois, une roue de vélo , un
14
verre ou même un fruit peut être utilisée comme interface gestuelle
permettant de contrôler précisément le moteur audio d’un…smartphone. Un
petit pas vers une sorte de dématérialisation des instruments est peut-être
franchi.
La recherche musicale est depuis longtemps aux avant-postes des
interfaces innovantes, sensibles et expressives. En observant comment les
dispositifs instrumentaux se développent aujourd’hui, on réalise que l’usage
d’interfaces génériques, comme la souris et le clavier, semble de plus en plus
New Interfaces for Musical Expression, notamment les actes (procedings) de la
13
conférence internationale du même nom http://www.nime.org/
Bruno Zamborlin en 2012 dans une Conférence Ted
14
compromis. Chaque année, on voit ainsi se répandre dans tous les domaines
d’application, de nouvelles interfaces tangibles et expressives, souvent
découvertes et expérimentées par des musiciens/chercheurs comme au
STEIM ou au CIRMMT qui s’en sont fait une spécialité.
15
Par exemple en 1984 au STEIM Michel Waisvisz a créé «!les mains!» une prothèse
16
de capteurs et de touches autour des mains.
Au CIRMMT les projets T-stick et T-box explorent l’accélération, les positions et les
mouvements, mais au delà de ces centres spécialisés, de nombreux artistes et
designers explorent ce domaine des nouvelles interfaces instrumentales.
Traditionnellement, les instruments de percussion et les claviers permettent
de déclencher, sélectionner et arrêter les sons. Les interfaces sonores
actuelles multiplient quant à elles les façons de déclencher et de contrôler
les sons et offrent des modalités d’interactions de plus en plus sophistiquées
mais aussi de plus en plus naturelles .
17
Voici quelques actions traditionnelles courantes pour produire des sons
musicaux :
- déclencher des événements sonores joués jusqu’à la fin.
- commuter!les sons on/off.
- sélectionner un son ou un autre et mixer dynamiquement les pistes.
En voici quelques autres plus actuelles qui viennent s’ajouter aux
précédentes, laissant entrevoir un infini de possibilités!:
- contrôler manuellement en continu les paramètres sonores.
- faire varier un motif en boucle, en modifiant des paramètres (par
substitution, permutation, ajout ou retrait).
18
Centre for Interdisciplinary Research in Music Media and Technology, Schulich School of
15
Music at McGill University (Montréal Canada) http://www.cirmmt.org/, http://www.idmil.org/
STudio for!Electro!Instrumental!Music (Utrecht Nederland) http://steim.org/
16
Qui permettent de manipuler le son de manière intuitive. En réalité totalement
17
artificiellement.
Séquenceur pas à pas
18
- faire varier les contrôles d’un générateur de flux.
19
- interpoler de façon continue entre différent états ou presets de réglages
sonores.
- déplacer librement la tête de lecture d’un son enregistré.
De l’élasticité de la corde à la modélisation physique!: ressentir le son
La perception tactilo-kinesthésique est essentielle au jeu musical. Les
instruments sans contact, tels le Theremin ou «!la caméra musicale!» sont plus
difficiles à jouer que les instruments dont la main ressent les réactions, comme
par exemple la vibration et l’élasticité des cordes d’une guitare. Sur les
instruments électroniques récents comme par exemple les pads , le Karlax
20
ou le Méta-Instrument, on trouve des retours passifs (forme, matériaux,
mécanique). Sur d’autres des retours haptiques actif utilisant des moteurs
21
ou des transducteurs permettent de restituer au corps de l’interprète les
réactions dynamiques de l’instrument.
Par exemple, dès les années 1970, les ingénieurs Claude Cadoz et Annie
Luciani équipent des manettes et claviers de moteurs à retour d’effort.
Grâce au «!Clavier Modulaire Rétroactif!», il devient possible de simuler les
réactions de nombreux phénomènes dynamiques. Utilisée pour la musique,
cette technique qui reboucle le capteur avec l’actionneur, renforce
l’expressivité en faisant entrer la sensation physique au cœur du geste
musical. Le projet PHASE utilisait un bras articulé à retour d’effort comme
22
interface de jeu pour une course poursuite musicale entre une tête de
lecture et une tête d’écriture dans un sillon géant.
Comme par exemple dans la synthèse granulaire
19
Par exemple le Kaoss pad Korg
20
Haptique!: la sensation musculaire du touché par opposition à la sensation tactile de la
21
peau.
2003 Ircam Centre Georges Pompidou / CEA / Ondim / Haption
22
Contrairement aux images, tous les sons physiques sont issus d’actions et
plus précisément d’interaction entre au moins deux éléments!: frottement
entre archet et corde, choc entre baguette et tambour, vibration produite
par le flux de l’air dans un biseau de tuyaux d’orgue, etc. La simulation
physique pour la création d’interactions sonores, ouvre de nouveaux horizons
à la création des sons. De la sorte, les modèles procéduraux d’instruments de
musiques offrent aux musiciens de nouveaux paramètres contrôlables dont
23
les instruments réels ne disposent pas, ainsi que la possibilité de créer toute
sorte de nouveaux instruments virtuels. Des orgues avec pitch bend, des
trompètes dont on fait varier les dimensions, ou encore des pianos dont on
peut modifier la position du marteau le comportement de la table
d’harmonie.
Du clavier au contrôleur programmable!: mais où est passé mon roseau
chantant!?
De 1982 à 2000, la plupart des instruments classiques, qu’il s’agisse des
pianos diskclavier ou mute piano, des orgues de Notre Dame, des guitares
Gaudin ou des harpes Camac, furent augmentés de capteurs électro-
numériques connectés, qu’ils soient MIDI et reliées à un ordinateur ou
affublés de pédales d’effets et autres contrôles.
D’autres facteurs d’instruments ont préféré développer les contrôleurs
MIDI, c’est à dire des interfaces de jeu ne produisant pas de son, mais
envoyant des commandes à un ordinateur ou un module de son séparé, à
l’image des Tenori-On , Quneo et autres Launchpad. Plus récemment,
24
certains de ces contrôleurs ont atteint une telle sophistication ergonomique
qu’ils sont devenus de véritables organes de contrôles sonores, comme le
Dans son livre Designing Sound, Cambridge, Mass: MIT Press, 2010. Andy Farnell
23
analyse un ensemble de phénomènes sonores et propose des méthodes pour les
modéliser.
https://fr.wikipedia.org/wiki/Tenori-on
24
fameux Karlax de Rémi Dury qui permet à la fois de contrôler le son joué
25
par un ordinateur, mais aussi toutes sortes d’autres effets au point qu’il est
également utilisé en mécanique industrielle. La tendance actuelle serait ainsi
de créer des contrôleurs hybrides, proches de l’instrument, produisant leur
propre son grâce à la présence en interne d’un ordinateur miniature et
d’une électronique audionumérique, tout en communiquant des données
temps réel vers d’autres outils et instruments. Mais c’est au prix d’une
certaine complexité, c’est pourquoi on parle désormais davantage de
dispositifs instrumentaux que d’instruments.
Arrivé à un tel degré de sophistication, on peut alors se demander où est
passé l’instrument!? Dans l’interface gestuelle ou dans le programme
d’ordinateur ? L’unité de l’instrument est brisée, l’instrumentiste tout puissant
se retrouve découpé en morceaux!; entre la main et l’oreille exercées qui
joue, le luthier qui assemble, le RIM (Réalisateur en Informatique Musicale)
26
qui programme et l’ingénieur du son qui contrôle le rendu.
Du musicien au joueur, de la partition à l’interface
Traditionnellement la partition est séparée de l’instrument, le compositeur
l’écrit, l’interprète et la joue. Elle repose sur son pupitre pendant que les
mains du musicien s’activent sur l’instrument. Aujourd’hui, la notation et
l’interprétation évoluent. Ainsi, dans certains orchestres, on remplace parfois
les partitions par des tablettes synchronisées. Mais la partition peut
également devenir l’instrument!: dès lors que les interfaces sonores sont aussi
visuelles et interactives, il n’est plus exclu que partition et instrument
Le Karlax Da-Fact (2010) était un des contrôleurs digitaux les plus avancés, notamment
25
du point de vue de l’ergonomie instrumentale et de l’expressivité http://www.dafact.com/
Terme utilisé à l’ircam depuis 2005 pour désigner les musiciens-ingénieurs développant
26
les dispositifs et parties électroniques des œuvres. L’appellation «!assistants musicaux!»,
fût jugé trop dévalorisante au vu des compétences avancées, de leur investissement et de
leur contribution artistique parfois décisive.
fusionnent, à l’image du projet Enigmes , développé à l’école de l’Ensci,
27
dont l’ambition est de créer une forme de partition navigable, quelque part
entre lutherie, design et composition.
Cimes: partition navigable de Matthieu Savary pour la pièce électroacoustique d’Eric Broitmann. Chaque
élément graphique symbolise un événement sonore déclenché au passage du pointeur de navigation.
En musique interactive, dans les jeux vidéo musicaux comme REZ ou Guitar
Hero, le joueur est aussi l’interprète. Autrement dit, la frontière entre interprète
et auditeur s’estompe. L’interprète, qui est également un auditeur, peut
désormais s’appeler un joueur de musique. Florent Aziosmanoff dans son livre
Living Art Fondations , montre comment les pratiques artistiques liées au
28
numérique tendent de cette manière vers l’établissement de relations de
Prec. Cit.
27
Aziosmanoff, Florent, and Edmond Couchot. Living art, fondations : au cœur de la
28
nouvelle économie. Paris : CNRS éd., 2015.
plus en plus élaborées et construites entre l’œuvre - entité vivante autonome,
et le spectateur, témoin privilégié de leur relation. Le comportement vivant
devient l’enjeu de l’œuvre.
C’est retrouver paradoxalement l’essence de la pratique musicale là où
on l’attend le moins!; auprès d’une machine!?
De l’homme-orchestre aux interactions multimodales!: la musique des
images
Jouer de la musique est par essence une interaction multimodale , c’est-
29
à-dire qu’elle fait appel (en entrée) au geste instrumental, au ressenti tactile
et haptique (musculaire), et bien sûr à l’écoute (en sortie), mais également à
la vue (par pour exemple se repérer sur l’instrument, suivre le chef
d’orchestre ou lire la partition), mais aussi à la mémoire et souvent à la parole
ou au chant. Cette richesse d’interactions multiples, à l’œuvre dans
l’expression musicale, s’incarne dans ses dispositifs comme dans ses formes.
Dans des performances audiovisuelles comme Morphist ou Egregore, les
artistes Cyril et Damien Henry créent par exemple des programmes
audiographiques réalisant une fusion des modalités visuelles et sonores à
partir d’algorithmes génératifs contrôlant à la fois le son et l’image en
30
temps réel.
Dans un monde où l’audiovisuel prend de plus en plus de parts de
marché, la modalité visuelle est de plus en plus présente, au point
qu’écouter sans voir devient une ascèse pénible pour la plupart d’entre
nous. En contrepartie, de nouveaux dispositifs et formes mutimodales de la
musique se développent comme dans le domaine du vjing, et chez des
artistes comme Antoine Schmitt, Rioji Ikeda, Nicolas Montgermont, Thomas
Sur ce concept lire Interfaces multimodales!: concepts, modèles et architectures. Thèse
29
de Yacine Bellik (1995)
Génératif!: processus expressif algorithmique en temps réel.
30
Jerome Newton ; conversion de l’image en son et du son en lumière,
31
génération de formes visuelles à partir de son, musique et danse, audiovision,
retour sonore des interactions tactiles, etc.
En contrepartie, la modalité visuelle surchargée cherche de nouvelles
alternatives auditives, notamment au cinéma où la bande son se montre de
plus en plus riche mais aussi envahissante, ainsi que dans les applications
fonctionnelles, par exemple dans le domaine de la mobilité avec les
soundwalks de Stephan Crasneanscki , le collectif Mu , des applications
32 33
comme topophonie de l’eau , le projet RoadMusic de Peter Sinclair , mais
34 35
aussi dans les projets industriels notamment automobiles où le design sonore
et l’audioguidage sont devenu incontournables.
De la composition au mash-up symbolique!: création et interprétation
collective en réseau
Avec la Web Audio API, il devient possible de créer des instruments dans
un navigateur web standard et ainsi de tisser des liens symboliques entre des
objets et des fonctions!: symboles, sons, séquences, règles, unité de temps,
contrôleurs… localisés à des endroits différents, un peu comme sur Facebook
ou les images où les vidéos apparaissent comme par magie.
Ces assemblages dynamiques ont la particularité de s’adapter à la
circonstance et au rendu. On utilise le terme de transmédia pour désigner la
combinaison de plusieurs supports d’usage. Appliqué à la musique, ce
principe consiste à recombiner dynamiquement les éléments composant
d’un instrument ou d’une musique en fonction des besoins.
Wingbeats https://vimeo.com/5875385
31
http://www.soundwalk.com
32
http://www.mu.asso.fr/
33
http://orbe.mobi/
34
Locus Sonus http://nujus.net/~petesinc/roadmusic_autosync/
35
Alors que les grands opéras sont retransmis en direct et en multipistes d’un
théâtre à l’autre, les performances musicales en réseau deviennent plus
accessibles aux musiciens, à l’image du projet NewAtlantis qui constitue
36
une nouvelle étape dans ce processus, puisqu’il propose un espace virtuel
de création et d’interprétation audio-graphique multi-joueurs.
"
NewAtlantis!: dispositif de création audiographique multi-utilisateur créé (2008-2015). Ici espace «!Cube!» créé
au Cube par Alexandra Radulescu, David Guignot, Paul Barret et Aristide Hersant
De la spatialisation à la musique cinétique!: les sons!comme des corps en
mouvement
La spatialisation des musiques électroacoustiques est devenue un enjeu
37
en soi. Aujourd’hui, le concert est sonorisé en multicanal, grâce à des
systèmes de spatialisation, des effets sonores de position, de trajectoires, et
http://www.NewAtlantis.world
36
La spatialisation sonore est utilisée en musique électroacoustique depuis l’origine et s’est
37
considérablement développée en concert notamment grâce aux instruments de diffusion
comme le Gmebaphone/Cybernephone (1973) et les orchestres de haut-parleurs
Acousmonium (1974). De nombreuses publications en présentent l’historique et les
développements récents. Voir notamment La Spatialisation des musiques
électroacoustiques (Laurent Pottier 2012).
d’animation des sources. Si les nombreux procédés développés à ce jour ont
montré leurs limites, les meilleurs actuellement sont l’ambisonic et la WFS qui
permettent de spatialiser de manière très précise la perception des sons
parmi le public, et de créer chez chacun des spectateurs une illusion
identique quant à la position du son dans l’espace d’écoute. Ces outils
ouvrent vers de nouveaux paradigmes musicaux comme la musique
cinétique dans laquelle le mouvement du son devient alors partie
38
intégrante de la composition musicale. Il ne suffit plus de donner des
impressions d’immersion, de balader le son ou de faire de jolies bascules
entre des plans, mais d’animer l’espace musical comme une nouvelle
dimension expressive de la composition musicale et de l’orchestration,
signifiante et constructive.
Mais l’espace sonore ne s’arrête pas à la question de la spatialisation. En
architecture, en muséographie, dans les espaces virtuels comme dans le
monde réel, la topophonie , c’est à dire la distribution structurée des sources
39
sonores dans l’espace et le temps, ouvre de nouveaux domaines
d’expression sonore et musicale. Et, grâce à la géolocalisation de plus en
plus précise des smartphones, l’audio-guidage devient le support de
créations musicales connectées à l’espace réel. On parle alors de créations
situées, d’audio-mobilité , de soundwalks, de promenades ou de ballades
40
sonores.
https://kineticmusic.wordpress.com/
38
Voir à ce sujet le projet de recherche Topophonie www.topohonie.com, https://
39
hal.archives-ouvertes.fr/hal-01483733 (2009-2012)
Voir à ce sujet le symposium Audio mobilty Aix en Provence 2014 http://locusonus.org/w/
40
index.php?page=Symposium8
Conclusion!: de l’écoute musicale au remix actif du quotidien
Mais, au fond, le futur de la musique se trouve peut-être plus simplement
dans une forme de dématérialisation plus humaine et moins technologique!;
notre écoute et la perception musicale de notre environnement, comme
l’avait fait remarquer John Cage. Dans une interview donnée en 1991, le
compositeur et visionnaire américain affirmait ainsi que «!tous les sons sont
beaux par nature et qu’il est inutile qu’on les charge d’autre significations!».
«!La musique que je préfère est le silence!», disait-il encore, ajoutant
qu’aujourd’hui, le silence «! c’est le bruit de la circulation que je perçois chez
moi, sur la 10è avenue. La musique, c’est toujours pareil alors que le son de la
circulation change tout le temps » . La bonne nouvelle, c’est peut-être
41
qu’aujourd’hui, c’est vous, l’auditeur, l’écoutant, qui êtes redevenu musicien.
John Cage «!about silence!» https://www.youtube.com/watch?v=pcHnL7aS64Y
41