Content uploaded by Carlos Caires
Author content
All content in this area was uploaded by Carlos Caires
Content may be subject to copyright.
Vers une écriture des processus de micromontage
Carlos Caires
Université Paris VIII
Centre de Recherche Informatique et Création Musicale (CICM)
Fundação para a Ciência e Tecnologia
Ministério da Ciência e do Ensino Superior (Portugal)
ccaires@wanadoo.fr
Résumé
Dans ce texte, je présente de façon sommaire un logiciel de Composition assistée
par Ordinateur écrit avec l'environnement de programmation et de traitement de
signal MAX-MSP [Zicarelli 1998]. Ce logiciel, que j'ai nommé provisoirement
MIXAGE, répond à un besoin très particulier de la composition musicale
électroacoustique : le micromontage. Je cherche également au travers de ce
projet l'intégration de paradigmes compositionnels appartenant au micro-temps
et au macro-temps dans un seul environnement
Mots-clefs
Micromontage, composition assistée par ordinateur, algorithmique, traitement du son, représentation
musicale.
1 Introduction
La technique de micromontage de ce logiciel prend comme principe global le prélèvement de fichiers de
son. Ces prélèvements sont multipliés en acceptant des traitements divers (filtrage, variation de vitesse,
renversement, changement de l'enveloppe d'amplitude, panning, etc.) de façon à élargir l'éventail des sons
qui compose le matériau sonore de la pièce musicale [Roads 2001]. Souvent, il s'avère utile de les classer
en familles selon son timbre, morphologie, ou bien suivant d'autres critères. Avec ce réservoir de sonorités
préalablement définies, l’on compose ainsi des figures plus complexes qui peuvent également être
multipliées [Vaggione 1995, 1996]. En composant des figures on s’approche de l’univers macroscopique de
la composition. Chaque son antérieurement composé « hors contexte » devient, à l’intérieur de la figure,
une unité logique car il sera mis en relation avec d'autres sons en fonction du temps. Le même son subira,
pour ainsi dire, une « allure » différente en fonction de la structure musicale dans laquelle il est désormais
inséré.
À partir de l'ensemble des opérations décrites au préalable et en envisageant la composition micro-échelle
d'une part, et macro-échelle, de l’autre part, on forge un véritable réseau de familles d'objets. Ces objets,
plus ou moins complexes, soutiendront la construction du tissu polyphonique de la composition dans le
domaine macro temporel. MIXAGE a été conçu de façon à rendre plus flexible ce genre d'approche
compositionelle. Cet article s’oriente ainsi vers une présentation des aspects compositionnels qui ont servi
de base à la construction d’un environnement de composition assistée par ordinateur, et passe sur les détails
concernant la programmation du logiciel MIXAGE.
2 Description générale
La Figure 1 donne un aperçu global de l’architecture de MIXAGE :
Figure 1. Les composants principaux de MIXAGE
Le parcours opératoire à l’intérieur de MIXAGE est composé par les étapes suivantes :
• Choisir le type de fichier en sachant qu’il y en a deux versions :
1. la première version avec deux sorties audio par piste lesquelles peuvent être distribuées par huit
canaux ;
2. la deuxième version, dans laquelle chaque piste contient quatre sorties indépendantes permettant
l’association des trajectoires multicanal pour chaque prélèvement. Dans ce cas, le produit des
quatre pistes - quatre sorties par piste, mixées respectivement - peut également être distribué par
huit canaux.
• Charger des fichiers de son (actuellement 16, toujours sachant qu’il est facile d'étendre ce nombre si
nécessaire).
• Composer des prélèvements et les modifier au travers des divers traitements audio. Une interface
graphique rends accessibles toutes les opérations.
• Composer des figures à partir de l'assemblage de plusieurs prélèvements.
• Nommer des prélèvements et des figures afin de les stocker dans des librairies.
• Placer soit les prélèvements soit les figures dans des endroits temporels choisis parmi les 4 pistes
disponibles.
• Enregistrer le résultat dans un fichier audio multi piste.
3 Composer le matériau
3.1. Prélèvement - brique élémentaire
La première étape est réalisée en produisant des multiples prélèvements à partir des fichiers de son. Chaque
prélèvement saisi est traité à l'aide des objets d'interface graphique, et le résultat est sauvegardé dans un
fichier de données au format texte (Figure 2 et Figure 3). Le fichier de son d'origine reste donc inaltéré.
Les traitements prévus sont les suivants :
• Variation de vitesse
• Filtrage (filtre biquad~)
• Enveloppe globale d’amplitude
• Décorrélation microtemporelle dans le cas des pistes stéréo [Vaggione 2002] ou trajectoire multicanal,
dans le cas des fichiers multicanal
Figure 2. Les fenêtres de saisie et édition des prélèvements. Piste stéréo et piste multicanal.
Figure 3. Le fichier-texte d’une piste et la fenêtre d’accès à la librairie des prélèvements édités et nommés.
Exemple du scriptage d'un prélèvement :
FiltCoefs (Liste - type de filtre, fréquence centrale, gain, résonance)
5 997.051025 0.265311 4.151711
EnvPan (flottante ou liste, selon il s'agit d'une valeur de déphasage entre deux
canaux ou une trajectoire multicanal)
22. ou 443.076935 110.769234 320.675079 0. 679.325073
EnvVol (liste de points qui définit l'enveloppe dynamique globale)
0.176471 661.290344 0.882353 284.946228 0. 53.763489
Play (fichier de son, vitesse, point de départ et fin)
:audio:clics&orq.aif 0.569626 309.591858 1331.63269
Shape(représentation graphique de chaque instance, script de dessin au format
accepté par l'objet LCD)
0 paintoval 0 24 8 9 0 88
Le script est un ensemble d’instructions concernant des traitements en temps réel que l’utilisateur peut
entendre immédiatement. Par ailleurs, tout prélèvement une fois achevé et stocké peut être modifié et
dupliqué autant de fois que l’on désire. Cet aspect s’avère essentiel, surtout dans le cas du micromontage,
dans lequel on manipule une quantité assez élevée d’événements sonores, leur variation étant une
importante technique de composition.
3.2. Figures
La figure se définit par l'assemblage de plusieurs prélèvements agencés en fonction du temps. Elle hérite
toutes les propriétés du prélèvement, néanmoins elle possède désormais des points de discontinuité
[Schilingi 1998]. Chacun de ces points - l’intervalle entre chaque prélèvement composant la figure –
représente, éventuellement, un point de sa segmentation, voire un nouvel aspect composable.
La fenêtre où l’on contrôle la composition des figures (Figure 4) inclut trois régions principales : Input,
Onset Variation et Quick Edit.
Figure 4. Fenêtre de composition des figures
3.2.1. Input
La première région concerne la façon dont on groupe les prélèvements composant une figure. Il est possible
de ce faire suivant trois méthodes :
• En copiant une séquence déjà placée sur une piste
• En composant chaque prélèvement à partir des fenêtres d’édition (voir section 3.1)
• En utilisant la fonction de granulation, laquelle permet de générer n’importe quel nombre de
prélèvements, retirés aléatoirement à partir d’une région choisie dans un des fichiers de son. Tout
élément de la figure ainsi produite peut ultérieurement être modifié au moyen de l’éditeur de
prélèvements.
Chaque méthode implique une procédure différente par rapport à l’assemblage des prélèvements ; notons
malgré cela qu’il n’est pas nécessaire d’utiliser une seule approche pour composer une figure : les trois
peuvent être utilisées à la fois. En effet, ce qui est habituel, c’est précisément la réunion de plusieurs
approches face à un problème compositionnel donné. Ceci est d’autant plus valable que les aspects globaux
et locaux de la composition portent sur une nature distincte faisant conséquemment appel à des stratégies
différentes. Lorsqu’on génère globalement une figure par le biais d’un algorithme, on a vite le besoin de la
modifier localement, « à la main », afin de la doter de singularités locales, c’est-à-dire, de la composer
[Vaggione 1996].
3.2.2. Onset Variation
La deuxième région permet d’accomplir les opérations de permutation des éléments de la figure (rotation et
renversement, pour l’instant) ainsi que le réglage de la distance temporelle entre chaque prélèvement. Ce
groupe de fonctions ira aussi être développé, de façon à inclure d’autres opérations sur la composition
temporelle de la figure, par exemple, l’aspect rythmique. Cela sera accompli, éventuellement, à l’aide de la
notation musicale (Figure 5).
Figure 5. Exemple d’un Patch Max appartenant à une bibliothèque en développement dans le cadre de ce travail,
permettant la visualisation et l’édition de la notation musicale.
3.2.3. Quick Edit
La région nommée Quick Edit sert à définir les valeurs de variation de vitesse et de décorrélation de phase
pour l’ensemble de prélèvements de la figure. Les panneaux utilisés fonctionnent comme un outil d’édition
où le compositeur dessine avec un seul geste l’évolution de ces paramètres en fonction du temps.
De plus, ils s’avèrent un mode de représentation assez important car il s’agit du seul endroit où l’on peut
repérer d’un seul coup d’œil la morphologie globale de la figure concernant ces deux aspects.
Comme pour les prélèvements, chaque fois qu’une figure est composée elle peut être nommée et stockée
dans une librairie afin d’être utilisée ultérieurement où bien placée directement sur une piste.
3.3. Méso-structure
On pourrait envisager une troisième couche, qui n’est pas encore incorporée dans la version ici présentée.
Elle concerne l’assemblage de plusieurs objets composés à partir des deux procédures décrites
préalablement - prélèvements et figures - dans un nouvel objet : la méso-structure. Pour le moment, je ne
puis que présenter un schéma (Figure 6) introduisant ce concept d’une façon sommaire :
1
2
3
ACdhE
C’biE
DAajB
Méso-structure
A
B
C
D
E (A’)
abda’
babfe
ahicj
bkflac
a’dba
Figures
a
b
c
d
e
f
g
h
a’
Prélèvements
Figure 6. A partir des prélèvements, au niveau plus bas, on compose des figures. Le niveau supérieur de ce schéma
concerne l’objet « méso-structure » qui correspondra à l’assemblage de prélèvements et/ou des figures.
4 Le rendu visuel
4.1. Quelques remarques sur les représentations visuelles de MIXAGE
Toute représentation musicale, que ce soit une partition où bien ses extensions informatiques, est à la fois
un lieu de matérialisation/visualisation des informations et un univers de création et d’expérimentation car
la perception du sonore au travers le visuel, quoique approximative, est quasiment instantanée. Tenant
compte que l’interface porte sur une double catégorie, il se comporte à la fois comme un outil de
visualisation et comme un outil de contrôle des processus.
Pour ce qui concerne le rendu visuel de MIXAGE, je cherche à fournir une perception assez rigoureuse,
naturellement issue de la représentation visuelle, de l’individualité de chaque séquence sonore, sans que
pourtant il soit nécessaire de passer toujours par l’écoute [Vinet 1999]. Pour le compositeur, la notation
devient ainsi langage vice-versa [Assayag 1999].
L’interface de MIXAGE reflète ainsi d’une façon directe tous les éléments du langage musical qui lui servent
de base. Au-delà des fenêtres de composition, des prélèvements et des figures, MIXAGE dispose aussi d’un
outil du type « timeline », lequel offre la possibilité de composer, de préserver et de visualiser toute
structure musicale agencée en fonction du temps. Dans la conception de MIXAGE, l’idée d’implémenter des
pistes (MIXAGE en possède quatre) réfléchi plutôt la notion de couche compositionnelle que proprement
d’une piste au sens traditionnel d’un séquenceur MIDI. Ainsi, cette notion de « piste » est fondée sur les
axes suivants :
• Elle est le réservoir de plusieurs objets édités préalablement.
• Ces objets y sont stockés de façon à être déclenchés dans un moment temporel précis.
• Les paramètres d’édition des objets sont leurs attributs exclusifs, indépendamment de la piste.
• Elle permet la construction de la polyphonie : qu’il s’agit des prélèvements, des figures, ou bien les
deux à la fois, il est possible de les superposer à l’intérieur d’une seule piste.
On peut donc considérer chaque couche en tant que métaphore d’une « voix » au sens contrapuntique du
terme.
4.2. Timeline
Figure 7. Visualisation selon le mode « BuffersView »
La visualisation des structures musicales de MIXAGE repose sur l’archétype général du type piano-roll que
l’on trouve dans la plupart des séquenceurs. Le début des évènements est signalé par leur position
horizontale et leur durée par sa longueur. Partant de ce principe, j’ai donc implémenté deux types de
représentation : « BuffersView » et « ShapesView ».
Dans le type de représentation « BuffersView » (Figure 7), la fenêtre « Timeline » est divisé
horizontalement en quatre parties, étant chacune associée à une piste. Les prélèvements, dont la couleur
reflète le fichier de son utilisé dans son agencement, sont disposés en cascade selon leur positionnement
temporel. Ce genre de visualisation, quoique très utile, pose quelques problèmes pour la reconnaissance des
objets appartenant à la même famille car cette classification, faite par le compositeur, suit plutôt des critères
morphologiques que des critères opératoires.
Dans ce travail, je propose un deuxième mode de représentation [Koechlin 1991] au travers lequel
j'ébauche d’autres solutions en réponse aux problématiques concernées par les représentations visuelles.
À l’inverse du cas précédent, l’espace d’affichage du mode de visualisation « ShapesView » est désormais
disponible sur toutes les pistes. De plus, la couleur, la forme géométrique et la position verticale de chaque
prélèvement sont des attributs définissables et modifiables par l’usager. On peut donc associer une
représentation visuelle à chaque prélèvement en suivant des critères plutôt « descriptifs ». On obtient ainsi
des catégories opératoires.
Figure 8. Visualisation selon le mode « ShapesView » et l’éditeur graphique.
5 Conclusions, futurs développements
MIXAGE est le résultat d’une recherche menée dans le cadre des dépendances émergentes du processus
compositionnel, tels que le langage, la représentation et la perception musicales. MIXAGE n’est donc pas un
environnement neutre car il s’engage à une approche compositionelle particulière. En effet, dans sa
conception, on remarque l’accent particulier sur la notion d’écriture sans perdre de vue toutefois les aspects
spécifiques de la composition du son.
De nouvelles fonctionnalités sont en train de développement. Elles portent sur les aspects suivants :
Modularité de l’environnement
• Étendre le nombre de pistes
• Prévoir l’utilisation de plusieurs types de pistes dans le même projet (stéréo ou multicanal)
• Étendre les possibilités de traitement audio associés aux prélèvements
Fonctionnalités disponibles
• Ajouter un troisième type d’objet, capable d’assembler les deux catégories présentées ici.
• Implémenter des algorithmes visant la génération et la modification de figures
Visualisation
• Prévoir l’utilisation de fichiers graphiques externes dans le mode de visualisation « ShapesView »
• Permettre le dessin « à la main » de figures graphiques associées à chaque prélèvement.
6 Remerciements
J’adresse mes remerciements à mon Directeur de Recherches, Horacio Vaggione, et à mes collègues de
doctorat, particulièrement Antonio Sousa Dias, Benoit Courribet, Jean-Baptiste Thiebaut et Mario Lorenzo
et Paulo Ferreira Lopes.
Des remerciements sont aussi dus à Carla Marinho pour sa contribution concernant la mise au point de
l’interface graphique.
Ce projet de recherche est soutenu par la Fundação para a Ciência e Tecnologia – Ministério da Ciência e
do Ensino Superior , Portugal.
Références
[Assayag 1999] Assayag, G. (1999). « Du calcul secret au calcul visuel », in Vinet, H. ; Delalande, F.
(eds.) Interfaces homme-machine et création musicale . Paris : Hermes-Science
Publications.
[Koechlin 1991] Koechlin O., Vinet H. (1991). « The Acousmographe, a Macintosh software for the
graphical representation of sounds », in Proceedings of the International Computer Music
Conference 1991. San Francisco : International Computer Music Association.
[Roads 2001] ROADS, C. (2001). Microsound. Cambridge, Massachusetts : The MIT Press.
[Schilingi 1998] Schilingi, J. B. (1998). « Morphologie et structures musicales », in Morphologie -
Fonctions d’analyse, de reconnaissance, de classification et de reconstitution de
séquences symboliques et numériques : Paris : IRCAM – Documentation.
[Vaggione 1996] Vaggione, H.(1996). “Vers une approche transformationnelle en CAO”, in Actes des
Journées d'Informatique Musicale 1996. Caen : Les cahiers du GREYC, CNRS-Université
de Caen.
[Vaggione 1995] Vaggione, H.(1995). « Objets, représentations, opérations ». In Ars Sonora Revue 2,
Paris : pp. 33-51.
[Vaggione 2002] Vaggione, H. (2002), « Decorrélation microtemporelle, morphologies et figures
spatiales » in Actes des Journées d'Informatique Musicale 2002. Marseille : ADERIM-
GMEM.
[Vinet 1999] Vinet, H.. « Concepts d’interfaces graphiques pour la production musicale et sonore », in :
Vinet, H. ; Delalande F. (eds.) Interfaces homme-machine et création musicale . Paris :
Hermes-Science Publications.
[Zicarelli 1998] Zicarelli, D. (1998). « An Extensible Real-Time Signal Processing Environement for
Max ». Proceedings of the International Computer Music Conference 1998. Michigan :
Ann Arbor.