PARTITIONS DISTRIBUÉES EN RÉSEAU DANS LE CYCLE
IN MEMORIAM JEAN-CLAUDE RISSET
par Jonathan BELL
Aix Marseille Univ, CNRS, PRISM
Perception, Representations, Image, Sound, Music
Résumé
Le cycle de compositions "In memoriam Jean-Claude Risset" marque un tournant important dans l’évolution du dispositif SmartVox: initialement conçu exclusivement comme un outil d’apprentissage et de performance pour choeurs, au moyen duquel des chanteurs reçoivent leur partition et leurs audio-guides par le navigateur de leur smartphone, SmartVox est désormais utilisé dans des configurations plus diverses: pour de grands ensembles avec choeur et orchestre, en petites formations de musique de chambre (grâce à un système dédié embarqué sur Raspberry Pi), comme support pour partitions synchronisées sur casque (head-mounted display), lors de concerts participatifs en interaction avec le public, ou enfin dans le contexte de production d’opéras. Cet article situe d’abord SmartVox parmi l’ensemble des technologies aujourd’hui disponibles dans le domaine de la notation musicale distribuée, puis aborde quatre compositions extraites du « Cycle Risset » , toutes réalisées au moyen de ce dispositif (une forme de performance assistée par ordinateur sans chef d’orchestre). D’un point de vue compositionnel, ces oeuvres ont été conçues comme des transcriptions spectrales mimétiques de sons synthétisés, en hommage au compositeur français pionnier de la synthèse sonore numérique et cofondateur de l’école spectrale. En tant qu’esthétique, la musique spectrale est à peu près contemporaine de la naissance de l’ère numérique dans les années 1970. Par une approche « néo-spectrale » , cet article cherche à défendre un archétype compositionel (le transfert mimétique d’un son naturel/synthétisé dans le domaine instrumental/vocal) que les technologies d’aujourd’hui ont rendu moins utopiques.
1. INTRODUCTION: MIMESIS
Si la mimesis était un principe moteur de création artistique dans la Grèce antique, elle était certainement aussi au coeur du projet de la musique spectrale française des années 1970. Chez Tristan Murail [1], Gérard Grisey [2], ou encore dans Mortuos Plango de Jonathan Harvey [3], l’analyse et l’imitation d’un spectre de son complexe 1 font partie intégrante du processus créatif [4][5]. Si, dans cette continuité historique, on concède à l’harmonie spectrale (et donc micro-tonale) une valeur essentielle, il convient d’examiner comment, dans le cas de chanteurs par exemple, ce transfert mimétique peut être facilité pour reproduire des hauteurs avec précision, lorsque ces derniers sont aidés par un guide-chant transmis par une oreillette (cf. audio-scores [6]), afin d’imiter spontanément la hauteur perçue. 2 Le dispositif SmartVox [7] [8] consiste donc à envoyer sur les écouteurs des smartphone de chaque interprète les hauteurs (mais aussi le texte, les dynamiques, le rythme...) qu’il doit jouer/chanter, pour simplifier l’apprentissage et permettre une grande précision d’éxécution dans le domaine de l’harmonie spectrale notamment.
Dans une composition spectrale réalisée à l’aide de SmartVox, 3 la notion de mimétisme apparaît de trois façons différentes 1/ tout d’abord par le transfer mimétique consistant à imiter aux voix ou instruments un son préalablement enregistré 2/ par l’imitation spontanée du chanteur de ce qu’il entend au casque : la « notation audio » (audio-score) ressemble alors beaucoup à l’effet recherché (sa réalisation par les chanteurs), la notation ressemble, immite plutôt qu’elle ne représente. 3/ par une approche animée de la notation musicale (le plus souvent un curseur représentant l’écoulement du temps), comme dans les stations audionumériques (Digital Audio Workstations, dans lesquelles le temps défile de gauche à droite), les tablatures modernes en piano roll et autres jeux vidéos comme Guitar Hero (dans lesquels le temps défile de haut en bas).
Pour coordonner des musiciens entre eux, et en comparaison de telles approches qualifiées de mimétiques par l’auteur, la notation musicale traditionnelle requiert un long apprentissage du solfège, de la justesse, du système rythmique, ainsi que du système de direction (ajustement entre l’écrit et la gestuelle du chef, lorsque la pièce est dirigée).
2. NOTATION
2.1. Experimentation en notation musicale: contexte international
Le site animatednotation.com de Ryan Ross Smith [9] [10] montre qu’aujourd’hui de nombreux compositeurs cherchent une alternative à cette pratique traditionnelle. Bien que, dès l’an 2000, on puisse tracer de nombreux témoignages de notation temps réel [11][12], ou encore de notation distribuée/répartie [13][14][15], la conférence TENOR 4 , depuis 2015, apparaît comme le lieu privilégié de ces questionnements. Majoritairement australiens, plusieurs de ces compositeurs/chercheurs se fédèrent sur le concept de screen-scores, attribuée à Lindsey Vickery [16]. Comme le faisait déjà Mauricio Kagel dans Prima Vista (1962/64), la notation animée repose souvent sur une projection en grand écran, sur laquelle chaque musicien identifie sa partie 5 . La partition se trouve dans le champ de vision des interprètes mais aussi du public, faisant de la notation une partie intégrante de la performance théâtrale.
De nombreux systèmes, plus axés sur la performance que sur la composition (le paradigme du ScorePlayer : SmartVox [7] [8], INScore [14] [17], Zscore [18], Decibel [19] [20], Maxscore [21], comprovisador [22] dn-m[23]) s’efforcent de distribuer et de synchroniser chaque partie séparée de la partition sur les périphériques des musiciens (smartphones, tablettes ou ordinateurs portables). Avec SmartVox par exemple, le rendu de la partition dans le navigateur s’est révélé très efficace pour ce type de configuration. Grâce aux technologies Web multi-plateformes, l’application fonctionne avec n’importe quel appareil doté d’un navigateur web et aucune installation n’est donc requise par le client. L’architecture node.js 6 / WebSocket de SmartVox, nous l’espérons, inspirera de plus en plus de compositeurs, interprètes, chercheurs et développeurs à explorer cette pratique musicale émergente de la notation distribuée.
2.2. Notation Graphique dans Bach
La plupart des oeuvres réalisées avec SmartVox reposent en grande partie sur Bach 7 [24] pendant le processus de composition. Chaque partition audio-visuelle est ensuite filmée sous forme de capture d’écran, pour que ces différentes parties soit ensuite envoyées et synchronisées via SmartVox 8 , comme l’exprime la figure ?? :
Figure 1. De la composition dans Bach à l’export vers Smartvox
L’utilisation de couleurs et de formes dans des pièces comme In Memoriam JC Risset I ou Mit Allen Augen (In memoriam JC Risset 2) a été inspirée par Cat Hope [25][20] et Lyndsey Vickery [26] (les développeurs du Decibel ScorePlayer), dont l’approche de la notation graphique animée ouvre de nouvelles perspectives d’un point de vue compositionnel.
Contrairement à d’autres objets dédiés à la notation dans Max (MaxScore [21], ou Symbolist [27]) imaginés sous forme de représentations graphiques/symboliques, 9 l’environnement de Bach prend racine dans Open Music [28] et la composition assistée par ordinateur, ce qui explique certaines de ses limites d’un point de vue graphique: à l’inverse de MaxScore par exemple, il est impossible d’insérer une image dans un objet bach.roll. 10 Ce dernier ne supporte pas non plus les articulations (contrairement à l’objet bach.score 11 en notation rythmique mesurée). 12 En dépit de ces quelques limitations graphiques, l’un des points forts de Bach réside dans sa capacité à contrôler directement des synthétiseurs à partir de la notation. Au moyen des slots, chaque note peut contenir des métadonnées ou des automations temporelles, destinées à être mappées sur n’importe quel sampleur/synthétiseur programmé par Max, permettant ainsi de manipuler les portées d’une partition comme les pistes d’une station audio-numérique (DAW). 13
2.3. Notation Musicale Distribuée
Plusieurs chercheurs et compositeurs reconnaissent aujourd’hui l’analogie qui peut être établie entre la pratique de notation musicale traditionnelle (du conducteur et des parties séparées), et celle des architectures distribués (ou systèmes répartis [15]), trouvées dans des applications Web dédiées à la notation (Zscore [18] - MASD [29] - SmartVox [7]), dans lesquels plusieurs clients coordonnent leurs actions en passant des messages les uns aux autres. La conférence TENOR 2018 à Montréal a révélé à l’auteur une proximité entre le Decibel Score-Player et SmartVox, dans le ce sens où ces deux logiciels sont des solutions plutôt élémentaires convergeant toutes deux vers le paradigme axé sur la performance de l’instrumentiste, tandis que d’autres environnements de notation (Bach, MaxScore, Symbolist...) sont plus orientés vers des processus de composition en temps réel. Bien que le Decibel Score- Player soit la solution d’application iOS la plus fiable aujourd’hui pour la notation animée distribuée, Cat Hope et Aaron Wyatt ont évoqué la possibilité de migrer leur système vers le navigateur, suite aux difficultés de réseau rencontrées avec l’application native, mais aussi en vue d’un accès instantané via Internet (comme c’est le cas avec SmartVox.eu) 14 , et un coût de production amoindri (pour des projets impliquant plus de cinquante appareils, l’iPad devient une solution très onéreuse). L’architecture la plus susceptible de permettre ce transfert de technologie serait un serveur node.js 15 (javascript côté serveur), avec le protocole de communication WebSocket, une solution utilisée par SmartVox dès 2015, grâce à Norbert Schnell et Benjamin Matuszewski de l’Ircam à Paris. Le serveur SmartVox envoie et synchronise des partitions audiovisuelles au format mp4, ce qui a démontré une robustesse indéniable lors de concerts et de répétitions impliquant de nombreux participants, mais révèle également la faiblesse potentielle d’une solution « en temps différé » dont l’interprétation est à chaque fois identique. D’autres compositeurs/chercheurs (Georg Hajdu, Rama Gottfried et Slavko Zagorac) étudient actuellement des solutions plus flexibles permettant de contrôler du contenu graphique SVG (Scalable Vector Graphic) directement sur la page HTML côté client. L’architecture choisie à cet effet par Georg Hajdu et Rama Gottfried est node.js, qui envoie des donnés de contrôle par OSC 16 , via WebSockets. Ce projet aboutira à une pièce pour 144 parties distribuées en temps réel à Hambourg en mai 2019.
2.4. Notation Distribuée en head-mounted display
In Memoriam JC Risset, Au festival NYCEMF - New York City Electronic Music Festival
In Memoriam JC Risset 1 17 , créée en septembre 2018 au festival Gaudeamus (Utrecht), constitue la première tentative de l’auteur d’utiliser des head-mounted displays (affichages frontaux) : des smartphones portés sur des casques, approchant ainsi une situation de réalité augmentée. Ces casques, utilisés pour la flute et la clarinette, ont révélé des potentiels intéressants, et furent exploités à plus large échelle dans Mit Allen Augen, (In Memoriam JC Risset 2).
Tout comme des partitions traditionnelles placées sur un pupitre, les screen scores, affichés sur tablette (pour les instrumentistes) ou sur un téléphone (pour les chanteurs) obligent les interprètes à regarder et à se positionner constamment en direction de la partition. Cette convention bien établie de la configuration de concert classique limite considérablement les possibilités de mise en scène de la musique, dans un contexte plus général de représentation/ performance.
Dans la version de Vortex Temporum de Gérard Grisey interprétée par I’Ensemble Ictus et chorégraphiée par Anne Teresa De Keersmaeker 18 , par exemple, les musiciens se sont trouvés contraints de maîtriser de mémoire la partition, tout en l’exécutant sans chef d’orchestre. Dans ce type de situation, des head-mouted displays, synchronisés par Wi- Fi, pourraient constituer un moyen intéressant d’aider les musiciens à se coordonner dans le temps et dans l’espace, lors de leurs déplacements sur scène ou autour du public, sans pour autant les mettre en péril en situation de représentation.
Selon les interprètes, 19 ces casques offrent un affichage large et confortable, car l’environnement est toujours visible autour de la partition (voir Figure 2), ou à travers la partition dans le cas d’un affichage holographique. 20 Les interprètes se sont également montrés intéressés par la possibilité de se déplacer librement sur scène ou ailleurs (ces pièce fut chorégraphiées différemment à chaque fois selon le lieu). Cet investissement physique des interprètes n’est pas sans rappeler le terme phygital (physique + numérique, attribué à Fabrizio Lamberti [30]), selon lequel les possibilités de physicalisation du jeu vidéo engloberont bientôt d’autres domaines des réalités augmentées et virtuelles.
Figure 2. Représentation de la partition, du point de vue de l’interprète.
En attendant des solutions plus discrètes (telles que des lunettes Vufine 21 , qui seraient presque invisibles du public), ou encore des systèmes de réalité augmentée (capables, par exemple, de reconnaître un instrument pour y superposer des instructions de tablature, 22 ces casques head-mounted display ouvrent déjà des pistes de recherche, qui pourraient aller au-delà du simple affichage de la notation animée. Cependant, des questions importantes se posent alors à propos de ce qui pourrait être pertinent avec une telle technologie: dans un contexte de réalité virtuelle par exemple, avec un interprète sur scène, comment peut-on surmonter les limitation induites par la déstabilisation de la proprioception de l’artiste? De plus, maintenant que n’importe quelle forme de partition immersive peut être modélisée 23 , en quoi de telles expériences présenteraient-elles un intérêt musical, et comment cela aurait-il un impact convaincant sur le résultat compositionnel/ performatif? SmartVox, par exemple, distribue et synchronise des fichiers mp4 et pourra probablement bientôt prendre en charge les vidéos panoramiques à 360° 24 , mais en quoi cela pourra-t-il bénéficier à l’artiste musicalement? L’Australie compte aujourd’hui la plus grande communauté de compositeurs/chercheurs au monde travaillant dans la notation animée, et des compositeurs australiens tels que Benedict Carey[31] et David Kim Boyle [32], qui étudient spécifiquement les partitions 3D dans des environnements de réalité virtuelle, devraient apporter rapidement des éléments de réponse à cette question.
3. NETWORKED MUSICAL PERFORMANCES - NMPS
3.1. SmartVox.eu, Distribution de Partitions sur leWeb, NMPs distantes
Avec la croissance exponentielle du Web, l’hébergement de SmartVox 25 sur Internet (c’est-à-dire sur un serveur distant plutôt que local) est apparu comme une nécessité. Cependant, nous avons démontré (au chapitre 4.2 « Measurements of timing accuracy » [8]) que, même si la synchronisation des différentes pièces était assez précise de cette manière, les solutions locales restaient plus sûres (dans la même pièce, par Wi-Fi). En outre, bien que SmartVox appartienne incontestablement au domaine des performances musicales en réseau (NPMs), il est devenu clair que son application pratique relève de la souscatégorie des « NMP locales » définie par Gabrielli et Squartini [33], dans lesquelles les musiciens intéragissent dans le même espace physique.
Depuis l’avènement d’Internet, des recherches approfondies ont été menées dans le domaine des performances musicales en réseau à distance (NMP « distantes » ) [34]. Aujourd’hui, cependant, les NMP « locales » semblent toujours plus viables, tant d’un point de vue technique qu’artistique. Alors que les jeunes générations tendent à jouer à des jeux vidéo en ligne (c’est-à-dire à distance), avec des avatars d’amis ou des joueurs anonymes souvent situés aux quatre coins du monde, peu d’exemples contrediront que le fait que les musiciens sont encore aujourd’hui plus enclins à lire une partition ou à improviser ensemble physiquement (c’est à dire dans un même lieu), probablement à cause du rapport geste/son intrinsèque à toute interaction en musique de chambre. Dans Embodiment and Disembodiment in Networked Music Performance [35], Georg Hajdu explique que « l’appréciation [de l’expérience musicale] repose sur la plausibilité entre action physique et résultat sonore » . Depuis l’émergence des NMPs, 26 le public et les musiciens ont souvent exprimé une certaine déception, car dans de telles situations, pour le spectateur, très peu est donné à voir, et donc à comprendre, ce qui s’aggrave pour les interprètes distants: « En raison de l’éloignement des participants, ces actions peuvent ne pas toujours perçues directement ou immédiatement [...], les relations classiques de cause à effet [...] sont remplacées par la vraisemblance, c’est-à-dire la mesure dans laquelle les artistes interprètes et les spectateurs sont capables de croire (‘buying’) au résultat d’une performance en construisant une carte mentales de l’interaction. Dans les NMPs, ceci peut être facilité par l’utilisation d’avatars, de visuels projetés et de dramaturgies soigneusement orchestrées, impliquant des participants dans des scénarios de jeu ». 27 Aujourd’hui, de nombreux environnements de Réalité Virtuelle se concentrent sur cette interaction entre une action physique et son résultat sonore. New Atlantis [36], par exemple, est une plate-forme d’exploration sonore multi-utilisateurs dans laquelle plusieurs joueurs peuvent interagir. 28 Grâce à leur capacité à représenter les avatars des interprètes musicaux, ces nouvelles interfaces pourraient bientôt permettre de recréer l’entité visuelle produisant le son (ou la musique). En recréant des liens de causalité virtuels entre une action et son résultat sonore, ces interfaces de jeu en ligne devraient fournir aux utilisateurs l’élément visuel manquant qui empêche encore aujourd’hui les NMPs de devenir une véritable pratique musicale mondialisée.
3.2. La ‘BabelBox’, un système embarqué sur Raspberry Pi pour NMPs locales
L’auteur a démontré que SmartVox convient à des projets de grande envergure, tels que le temps des nuages, 29 dans lesquels quatre-vingts chanteurs et musiciens ont synchronisé leurs partitions par le même réseau [8]. Ces productions suscitent encore un intérêt croissant de la part des chorales et des ensembles, 30 nécessitant une configuration technique très modeste (un seul point d’accès Wi-Fi, comme par exemple une borne Ubiquiti Unifi) pour les choeurs jusqu’à trente chanteurs, avec un serveur node.js fonctionnant sur un ordinateur Mac. Cependant, dans le contexte plus intime de la musique de chambre (comme dans In Memoriam JC Risset 1), l’objectif est différent: la charge du réseau est beaucoup moins importante, ce qui a incité à trouver une solution minimale pour permettre des répétitions sans difficultés d’installation (pour pouvoir se passer de la présence physique du compositeur ou de la mobilisation d’un technicien uniquement pour configurer un réseau). L’installation à distance du serveur sur l’ordinateur de l’interprète (chefs de choeurs le plus souvent) a été possible même avec des musiciens non familiarisés avec la technologie, grâce à la souplesse du Node Package Manager (NPM), qui réduit l’installation de SmartVox à quelques lignes de commande. 31 Ce processus d’installation est néanmoins resté un obstacle à la diffusion de SmartVox. À la recherche d’un système dédié léger, plug-and-play à envoyer par la poste, le Raspberry Pi est rapidement apparu comme la meilleure option pour héberger SmartVox sur un système embarqué. node.js fonctionne sur Raspbian et SmartVox s’est avéré très stable sur un Raspberry Pi 3. Ainsi, une fois installé, les deux seules étapes d’un outil plug and play livrable au interprètes sans configuration étaient:
• Démarrer SmartVox au démarrage au moyen d’un service (dans systemd), exécutant le script de lancement du serveur après initialisation du système.
• Configurer une adresse statique pour un routeur dédié (par exemple, TP-link ...).
Ce système peu coûteux (moins de 65Cpour un Raspberry et un routeur) permet désormais l’envoi de partitions prêtes à l’emploi. Une fois le système branché au secteur, tout ce que les utilisateurs doivent faire est de se connecter au Wi-Fi dédié et de taper l’adresse IP statique du serveur sur leur smartphone/tablette (par exemple, pour les utilisateurs: 192.168.0.2:8000 et pour le conducteur: 192.168.0.2:8000/conductor). En janvier 2019, pour une pièce pédagogique 32 le système a été loué au conservatoire de Caen par l’intermédiaire de BabelScores 33 , proposant ainsi une location de matériel d’un nouveau genre. Le compositeur Kelly Fox, basé à Troy (New York State, US) a utilisé de manière intéressante le Raspberry Pi pour le rendu graphique de partitions dans sa pièce Accretion [23]: « cet article cherche à justifier l’adoption du Raspberry Pi comme dispositif puissant et méthode de distribution/ exécution de notation musicale animée » (traduction de l’auteur). Contrairement à SmartVox, dans lequel Raspberry Pi est utilisé pour lancer un serveur node.js, l’approche de Fox propose d’utiliser plusieurs Raspberry Pis en tant que clients pour le rendu graphique de la notation.
4. ORCHESTRATION MIMÉTIQUE
À l’exception du premier opus (In Memoriam JC Risset 1), dont les hauteurs proviennent de l’analyse des spectres de synthèse FM, toutes les pièces de ce cycle se basent sur une orchestration mimétique (terme attribué à Lindsay Vickery [37] et Benedict Carey [38]) du synthétiseur de laboratoire PRISM, développé par Richard Kronland-Martinet [39], qui a longtemps travaillé avec Jean-Claude Risset au Laboratoire de Mécanique et d’Acoustique de Marseille. Ce synthétiseur est basé sur un modèle perceptif (par opposition à un modèle physique [40]) et porte l’influence de l’exploration de la synthèse du timbre par Risset, examinée sous l’angle de la perception humaine [41]. La grande majorité de l’électronique des pièces de ce cycle (In Memoriam 2, 3 et 4) utilise le paramètre de liquéfaction, qui transforme un son continu en petits grains évoquant les impacts retentissants des gouttes sur des surfaces métalliques résonnantes, ou une forme de pluie imaginaire sur des carillons métalliques. 34 La librairie Bach a encore une fois été très utile pour la transcription musicale, permettant par la suite un transfert dans le domaine instrumental. Ces pièces reposent donc majoritairement sur le procédé spectral consistant à analyser, transcrire, puis orchestrer l’évolution spectrale/temporelle d’une trame éléctroacoustique.
Les scènes de musique contemporaine telles que celles représentées en Europe par les académies et festivals de Gaudeamus ou Darmstadt révèlent cependant que ces préoccupations spectrales sont souvent très éloignées de ce que les jeunes générations de compositeurs souhaitent exprimer. Il convient par conséquent de qualifier de néo de postspectrales les techniques ici considérées. Bien que ce canon esthétique soit encore enseigné dans des institutions telles que l’Ircam, ou souvent (mais brièvement) mentionné dans les programmes d’enseignement de composition, on peut déplorer le fait qu’il ait vu le jour avant que les avancées technologiques puissent proposer des interfaces plus intuitives pour les compositeurs (telles que les outils présentés dans ce document - Bach, Ableton, synthétiseur PRISM), ou une assistance auditive et visuelle pour les interprètes (SmartVox). De tels outils, aujourd’hui accessibles de tous, permettraient de réaliser de façon beaucoup plus automatisée le mariage entre sons instrumentaux et électroniques rêvé par les premiers compositeurs spectraux.
4.1. Domaine temporel: précision temporelle et transfert mimétique
En 2018 à l’Ircam, Benjamin Matuszewski a amélioré de façon substantielle les possibilités de synchronisation de SmartVox en implémentant un algorithme côté client capable de rétablir la synchronisation des périphériques dont la dérive dépasse un certain seuil ([8], chapitre 4.3). Avant cette nouvelle version, SmartVox devait faire face à une temporalité plus approximative, mais il peut maintenant explorer un large éventail de situations musicales étroitement synchronisées, entre musiciens, électronique et vidéo par exemple. L’objet bach.roll (un éditeur en notation proportionnelle) envoie des notifications de son état de lecture en temps réel. Ces notifications peuvent être interprétées dans Max For Live afin de synchroniser 1/ la notation pour les joueurs humains dans Bach et 2/ l’électronique dans Ableton Live. La figure 3 montre comment accéder aux commandes de lecture d’Ableton par live-set path depuis le Live Object Model (LOM), ce qui permet une synchroni-sation constante entre la partition et l’électronique, pendant le processus de composition. Ce dialogue inter-application a largement facilité le processus compositionnel de Mit Allen Augen, In Memoriam J.-C. Risset 2, une pièce pour 12 voix, 12 instruments et électronique donnée à Paris en mars 2019.
Figure 3. Device Max For Live synchronisant Bach et Ableton.
Les pièces du cycle Risset bénéficient toutes de la souplesse que permet ce dialogue entre Bach et Ableton : dans la première pièce du cycle par exemple, un passage explore des jeux de hoquets dont la précision rythmique tire parti de l’affichage du temps sous forme de curseur déroulant. 35 Dans Das Hoheslied, In Memoriam Jean- Claude Risset 3 (création en juin 2019), les étudiants de HfMT Hamburg ont pu, lors d’un tout premier déchiffrage, chanter des passages qui ressemblaient de manière frappante au modèle visé. 36 De même, dans le « Pouquette Opera » , les voix devraient pouvoir faire face à l’attaque de la bande avec une grande précision. 37
4.2. Domaine de fréquence: Analyse harmonique de la modulation de fréquence
Plutôt que de citer l’illusion du célèbre glissando Shepard- Risset, l’auteur a jugé plus approprié de réactiver l’une des techniques les plus prisées des débuts de l’informatique musicale: la modulation de fréquence, dont Risset fut l’un des premiers utilisateurs (dans son oeuvre Mutations, en 1969, grâce à la généreuse permission de Chowning). C’est pourquoi presque tout le matériel harmonique de In Memoriam J. C. Risset 1 et 3 a été généré par synthèse FM. Pour l’analyse de fréquence, bien que Iana [42] ait déjà été utilisé (et également favorisé par Daniele Ghisi [24] dans certains de ses correctifs de transcription), le descripteur de l’Ircam zsa.freqpeak [43] offrait des résultats plus précis. Zsa.freakpeak a donc été utilisé dans un device Max For Live pour la visualisation des hauteur 38 . Inspirée par les conclusions de Risset concernant l’évolution temporelle du contenu harmonique des sons de trompette enregistrés numériquement (qui s’enrichit dans l’aigu lorsque la loudness augmente [44]), l’orchestration du passage ci-dessous imite l’indice de modulation de fréquence et son évolution temporelle 39 , en entrée successives de voix, du registre le plus grave (basses) vers l’aigu (soprani). 40
4.3. Spectralisme mimétique et imitation vocale, conclusion et prolongements
Certains des outils présentés dans ce chapitre montrent que les possibilités offertes par les technologies actuelles auraient séduit les partisans du spectralisme mimétique des années 1970. Si, ailleurs qu’en France, cette esthétique compositionnelle est parfois controversées, elle peut néanmoins constituer un terrain fertile pour la recherche art/science, car ses objectifs et méthodes, axés sur la reproductibilité d’un modèle, convient à des évaluations quantifiables. 41
Dans un contexte plus scientifique, le laboratoire PRISM 42 a entrepris une étude expérimentale de l’imitation vocale qui rappelle l’expérience de lecture à vue de Das Hoheslied. Thomas Bordonné explique que cette étude « visait à déterminer les caractéristiques principales des sons (inconsciemment) choisies par les participants lors d’imitations vocales » . Bordonné conclut: « Les imitations vocales semblent être un bon outil pour accéder à la perception et déterminer quels paramètres du sonore sont les plus significatifs » [45]. Dans cette étude expérimentale, par conséquent, tout comme dans sessions de lecture dirigées par SmartVox, les participants/chanteurs sont invités à imiter ce qu’ils entendent.
5. ÉTUDE DE CAS: « POUQUETTE OPÉRA » , LA COULEUR COMME MÉTAPHORE POUR L’HARMONIE EN DISPOSITIF PARTICIPATIFS
5.1. Participation
Les productions basées sur SmartVox tirent profit des dispositifs participatifs émergents, dans lesquels des chorales locales (constituées d’amateurs, d’étudiants, ou encore de maîtrises confirmées) ont la possibilité de chanter avec des musiciens professionnels (par exemple, SmartVox ou Le temps des nuages. A l’instar de SmartVox, l’application Web Your Smartest Choice 43 (dédié à une pièce du même nom par la compositrice Huihui Cheng) a été développé par Benjamin Matuszewski à l’Ircam, dans le framework SoundWorks [46]. Dans cette pièce, le public interagit avec les artistes sur scène par un jeu vidéo/instrument exécuté dans le navigateur de leur smartphone. Ce projet a encouragé l’auteur à pousser encore plus loin cet aspect participatif, non seulement avec des chanteurs de différents niveaux rejoignant des professionnels dans une production, mais aussi avec le public participant à la performance, par le biais d’un jeu vidéo déployé sur Wi-Fi, accessible via leur propre smartphone, tout comme les partitions des interprètes.
5.2. Chroma, la relation entre couleur et harmonie
Le projet Pouquette opéra 44 consiste en une mise en scène dans laquelle des musiciens professionnels (l’ensemble De Caelis) interagiront avec des chorales de l’enseignement secondaire (chant) et avec le public (jouant au moyen d’un jeu sur leur smartphone). L’intérêt pédagogique consiste ici à familiariser les élèves avec les notions d’accord, d’intonation et d’harmonie. Comme dans la plupart des projets SmartVox, les guides-chants aideront les étudiants en chorale à chanter juste, mais cette fois le public sera invité à suivre l’action musicale qui se passe sur scène. La partition complète est projetée sur un écran et le jeu affiche des bulles de différentes couleurs défilant au téléphone. Chaque couleur correspond à un son spécifique, afin d’inciter l’audience à suivre la partition et à cliquer sur la couleur correspondante. Une introduction didactique expliquera les règles du jeu. 45 Lyndsey Vickery [26] a été encore une fois une source d’influence sur la question du rôle possible que la notation musicale peut attribuer à la couleur : tous les champs harmoniques étant générés à partir des sons liquéfiés du synthétiseur PRISM [39], la couleur a été ici utilisée pour sa signification harmonique. En rappelant que le mot grec ancien pour couleur (chroma) a conduit de manière intéressante au chromatisme, le projet Pouquette opéra cherche à développer, à travers un processus de ludification de la notation musicale, une prise de conscience des notions de hauteur et d’harmonie spectrale, auprès de publics de tous horizons.
6. CONCLUSION
Initialement conçu presque exclusivement comme un outil de répétition dans le cadre de pratiques chorales [7] [8], de récentes utilisations montrent que SmartVox se définit surtout comme un player de partition distribuées (au format mp4), convenant aussi bien aux instrumentistes, qu’aux chanteurs de tous niveaux (des premières classes de soflège aux professionnels spécialisés dans l’opéra et/ou la création contemporaine). Comme aide à l’intonation, SmartVox est particulièrement adapté aux procédés hérités de la musique spectrale. Les améliorations récentes concernent 1/ les capacités de synchronisation du dispositif, 2/ son embarquement sur Raspberry Pi, facilitant sa dissémination par BabelScore 3/ une première série d’expérimentation de head-mounted display, s’approchant de situation s de réalité augmentée. Si la notation reste un concept clé pour SmartVox, la notion de performance musicale en réseau (Networked Musical Performance) la définit encore mieux.
7. REMERCIEMENTS
J’aimerais remercier Richard Baker, Daniele Ghisi, Georg Hajdu, Richard Kronland-Martinet, Benjamin Matuszewski, Norbert Schnell, ainsi que l’ensemble De Caelis, pour leur soutien.
8. REFERENCES
[1] T. Murail, “The revolution of complex sounds,” Contemporary Music Review, vol. 24, no. 2-3, pp. 121–135, 2005. [Online]. Available: https: //doi.org/10.1080/07494460500154780
[2] F.-X. Féron, “The emergence of spectra in gérard grisey’s compositional process: From dérives (1973–74) to les espaces acoustiques (1974–85),” Contemporary Music Review, vol. 30, no. 5, pp. 343–375, 2011. [Online]. Available: https://doi.org/10.1080/07494467.2011.665582
[3] A. Whittall and I. R. institute : France), Jonathan Harvey, ser. Compositeurs d’aujourd’hui. Faber, 1999. [Online]. Available: https://books.google.fr/ books?id=aXi1QgAACAAJ
[4] J. Anderson, “A provisional history of spectral music,” Contemporary Music Review, vol. 19, no. 2, pp. 7–22, 2000. [Online]. Available: https://doi.org/10.1080/07494460000640231
[5] J. Fineberg, “Spectral music,” Contemporary Music Review, vol. 19, no. 2, pp. 1–5, 2000. [Online]. Available: https://doi.org/10.1080/07494460000640221
[6] J. Bell, “Audio-scores, a resource for composition and computer-aided performance,” Ph.D. dissertation, Guildhall School of Music and Drama, 2016. [Online]. Available: http://openaccess.city.ac.uk/ 17285/
[7] J. Bell and B. Matuszewski, “SmartVox. A web-based distributed media player as notation tool for choral practices,” in Proceedings of the 3rd International Conference on Technologies for Music Notation and Representation (TENOR). Coruña, Spain: Universidade da Coruña, 2017.
[8] J. Bell, “Audiovisual Scores and Parts Synchronized over the Web,” in TENOR 2018, Montreal, France, 2018. [Online]. Available: https://hal. archives-ouvertes.fr/hal-01779806
[9] R. R. Smith, “An atomic approach to animated music notation,” in Proceedings of the First International Conference on Technologies for Music Notation and Representation – TENOR’15, M. Battier, J. Bresson, P. Couprie, C. Davy-Rigaux, D. Fober, Y. Geslin, H. Genevois, F. Picard, and A. Tacaille, Eds., Paris, France, 2015, pp. 39–47.
[10] ——, “[study no. 50][notational becoming][ speculations],” in Proceedings of the International Conference on Technologies for Music Notation and Representation – TENOR’16, R. Hoadley, C. Nash, and D. Fober, Eds. Cambridge, UK: Anglia Ruskin University, 2016, pp. 98–104.
[11] A. Clay and J. Freeman, “Preface: Virtual scores and real-time playing,” Contemporary Music Review, vol. 29, no. 1, pp. 1–1, 2010. [Online]. Available: https://doi.org/10.1080/07494467.2010.509587
[12] D. Fober, Y. Orlarey, and S. Letz, “Inscore – an environment for the design of live music scores,” in Proceedings of the Linux Audio Conference – LAC 2012, 2012, pp. 47–54. [Online]. Available: INScore-ID12-2.pdf
[13] G. Hajdu, K. Niggemann, Á. Siska, and A. Szigetvári, “Notation in the context of quintet.net projects,” Contemporary Music Review, vol. 29, no. 1, pp. 39–53, 2010. [Online]. Available: https: //doi.org/10.1080/07494467.2010.509592
[14] D. Fober, G. Gouilloux, Y. Orlarey, and S. Letz, “Distributing music scores to mobile platforms and to the internet using inscore,” in Proceedings of the Sound and Music Computing conference — SMC’15, 2015, pp. 229–233. [Online]. Available: inscore-web-SMC15.pdf
[15] J.-M. Celerier, M. Desainte-Catherine, and J.-M. Couturier, “Exécution répartie de scénarios interactifs,” in Actes des Journées d’Informatique Musicale JIM’17 – Paris, 2017.
[16] C. Hope and L. Vickery, “Screen scores: New media music manuscripts,” in Proceedings of the 2011 International Computer Music Conference, ICMC 2011, Huddersfield, UK, July 31 - August 5, 2011, 2011. [Online]. Available: http://hdl.handle.net/2027/ spo.bbp2372.2011.045
[17] G. Lepetit-Aimon, D. Fober, Y. Orlarey, and S. Letz, “Composition de partitions symboliques dans inscore,” in Actes des Journées d’Informatique Musicale JIM’16 – Albi, 2016, pp. 54–60. [Online]. Available: inscore-jim16-final.pdf
[18] S. Zagorac and P. Alessandrini, “Zscore: A distributed system for integrated mixed music composition and performance,” in Proceedings of the International Conference on Technologies for Music Notation and Representation – TENOR’18, S. Bhagwati and J. Bresson, Eds. Montreal, Canada: Concordia University, 2018, pp. 62–70.
[19] C. Hope, A. Wyatt, and D. Thorpe, “Scoring an animated notation opera – the decibel score player and the role of the digital copyist in ’speechless’,” in Proceedings of the International Conference on Technologies for Music Notation and Representation – TENOR’18, S. Bhagwati and J. Bresson, Eds. Montreal, Canada: Concordia University, 2018, pp. 193– 200.
[20] C. Hope, L. Vickery, A. Wyatt, and S. James, “The decibel scoreplayer - a digital tool for reading graphic notation,” in Proceedings of the First International Conference on Technologies for Music Notation and Representation – TENOR’15, M. Battier, J. Bresson, P. Couprie, C. Davy-Rigaux, D. Fober, Y. Geslin, H. Genevois, F. Picard, and A. Tacaille, Eds., Paris, France, 2015, pp. 58–69.
[21] G. Hajdu and N. Didkovsky, “Maxscore: Recent developments,” in Proceedings of the International Conference on Technologies for Music Notation and Representation – TENOR’18, S. Bhagwati and J. Bresson, Eds. Montreal, Canada: Concordia University, 2018, pp. 138–146.
[22] P. Louzeiro, “Improving sight-reading skills through dynamic notation – the case of comprovisador,” in Proceedings of the International Conference on Technologies for Music Notation and Representation – TENOR’18, S. Bhagwati and J. Bresson, Eds. Montreal, Canada: Concordia University, 2018, pp. 55– 61.
[23] J. Bean, “denm (dynamic environmental notation for music): Introducing a performance-centric musical interface,” in Proceedings of the First International Conference on Technologies for Music Notation and Representation (TENOR), Paris, France, 2015, pp. 74–80.
[24] A. Agostini and D. Ghisi, “Bach: an environment for computer-aided composition in max,” in Proceedings of the 38th International Computer Music Conference (ICMC), Ljubljana, Slovenia, 2012. [25] C. Hope, “Electronic scores for music: The possibilities of animated notation,” Computer Music Journal, vol. 41, no. 3, pp. 21–35, 2017.
[26] L. Vickery, “Some approaches to representing sound with colour and shape,” in Proceedings of the International Conference on Technologies for Music Notation and Representation – TENOR’18, S. Bhagwati and J. Bresson, Eds. Montreal, Canada: Concordia University, 2018, pp. 165–173.
[27] R. Gottfried and J. Bresson, “Symbolist: An open authoring environment for user-defined symbolic notation,” in Proceedings of the International Conference on Technologies for Music Notation and Representation – TENOR’18, S. Bhagwati and J. Bresson, Eds. Montreal, Canada: Concordia University, 2018, pp. 111–118.
[28] J. Bresson, C. Agon, and G. Assayag, “Open- Music – Visual Programming Environment for Music Composition, Analysis and Research,” in ACM MultiMedia (MM’11), Scottsdale, United States, 2011. [Online]. Available: https://hal.archives-ouvertes.fr/hal-01182394
[29] D. G. Nathan Magnus, “Musician assistance and score distribution (masd),” in Proceedings of The International Conference on New Interfaces for Musical Expression – NIME’2012. Ann Arbor.: University of Michigan, 2012.
[30] M. L. Lupetti, G. Piumatti, and F. Rossetto, “Phygital play hri in a new gaming scenario,” in 2015 7th International Conference on Intelligent Technologies for Interactive Entertainment (INTETAIN), June 2015, pp. 17–21.
[31] B. E. Carey, “Spectrascore vr: Networkable virtual reality software tools for real-time composition and performance,” in International conference on New Interfaces for Musical Expression (NIME), Brisbane, Australia, 2016.
[32] D. Kim-Boyle, “The 3-d score,” in Proceedings of the International Conference on Technologies for Music Notation and Representation – TENOR’17, H. L. Palma, M. Solomon, E. Tucci, and C. Lage, Eds. A Coru na, Spain: Universidade da Coru na, 2017, pp. 33–38.
[33] L. Gabrielli and S. Squartini, Wireless Networked Music Performance. Singapore: Springer Singapore, 2016, pp. 53–92. [Online]. Available: https: //doi.org/10.1007/978-981-10-0335-6_5
[34] C. Rottondi, C. Chafe, C. Allocchio, and A. Sarti, “An overview on networked music performance technologies,” IEEE Access, vol. 4, pp. 8823–8843, 2016.
[35] G. Hajdu, “Embodiment and disembodiment in networked music performance,” in Body, Sound and Space in Music and Beyond: Multimodal Explorations. Taylor & Francis, 2017.
[36] P. f. Sinclair, R. Cahen, J. Tanant, and P. Gena, “New Atlantis: Audio Experimentation in a Shared Online World,” in Bridging People and Sound. 12th International Symposium, CMMR 2016, São Paulo, Brazil, July 5–8, 2016, Revised Selected Papers, ser. Lecture Notes in Computer Science, S. Y. Mitsuko Aramaki, Richard Kronland-Martinet, Ed. Springer, 2017, vol. 10525, pp. 229–246. [Online]. Available: https://hal.archives-ouvertes.fr/ hal-01791975
[37] L. Vickery, “Hybrid real/mimetic sound works,” in Proceedings of the International Conference on Technologies for Music Notation and Representation – TENOR’16, R. Hoadley, C. Nash, and D. Fober, Eds. Cambridge, UK: Anglia Ruskin University, 2016, pp. 19–24.
[38] B. E. Carey, “From mimetics to memetics,” Ph.D. dissertation, Hochschule für Musik und Theater Hamburg, (unpublished).
[39] S. Conan, E. Thoret, M. Aramaki, O. Derrien, C. Gondre, S. Ystad, and R. Kronland-Martinet, “An intuitive synthesizer of continuous-interaction sounds: Rubbing, scratching, and rolling,” Computer Music Journal, vol. 38, no. 4, pp. 24–37, Dec 2014.
[40] N. Ellis, J. Bensoam, and R. Causse, “Modalys demonstration,” in Proceedings of International Computer Music Conference, Barcelona, Spain, Sep. 2005, pp. 101–102, cote interne IRCAM: Ellis05a. [Online]. Available: https://hal.archives-ouvertes.fr/ hal-01161344
[41] J.-C. Risset and D. Wessel, “Exploration of timbre by analysis and synthesis,” in The Psychology of Music, D. Deutsch, Ed. Academic Press, 1999, pp. 113–169. [Online]. Available: https: //hal.archives-ouvertes.fr/hal-00939432
[42] T. Todoroff, É. Daubresse, and J. Fineberg, “IANA: A real-time environment for analysis and extraction of frequency components of complex orchestral sounds and its application within a musical realization,” in Proceedings of the 1995 International Computer Music Conference, ICMC 1995, Banff, AB, Canada, September 3-7, 1995, 1995. [Online]. Available: http://hdl.handle.net/2027/spo.bbp2372.1995.088
[43] M. Malt and E. Jourdan, “Zsa.Descriptors: a library for real-time descriptors analysis,” in 5th Sound and Music Computing Conference, Berlin, Germany, ser. 5th Sound and Music Computing Conference, Berlin, Germany, Berlin, Germany, Jul. 2008, pp. 134–137. [Online]. Available: https://hal.archives-ouvertes.fr/hal-01580326
[44] J. C. Risset, “Computer study of trumpet tones,” The Journal of the Acoustical Society of America, vol. 38, no. 5, pp. 912–912, 1965. [Online]. Available: https://doi.org/10.1121/1.1939648
[45] T. Bordonné, M. Dias-Alves, M. Aramaki, S. Ystad, and R. Kronland-Martinet, “Assessing sound perception through vocal imitations of sounds that evoke movements and materials,” in Computer Music Multidisciplinary Research (CMMR2017), Matosinhos, Portugal, Sep. 2017. [Online]. Available: https://hal.archives-ouvertes.fr/hal-01810880
[46] N. Schnell and S. Robaszkiewicz, “Soundworks – A playground for artists and developers to create collaborative mobile web performances,” in Proceedings of the first Web Audio Conference (WAC), Paris, France, 2015.
1 La documentation de la célèbre analyse d’un son de cloche est consultable ici : http://brahms.ircam.fr/analyses/Mortuos/
2 Comme, par exemple, la pièce Das Hoheslied, In Memoriam Jean- Claude Risset 3, créée en juin 2019 à Hambourg
3 Comme, par exemple, dans la pièce du même nom : https://youtu.be/8R4Twc1A7Ks
4 http://www.tenor-conference.org/
5 Study no. 8 de R. R. Smith est un bon exemple de cette pratique https://youtu.be/QeBwSYbHcbQ?t=471
6 Server-side JavaScript : https://nodejs.org/en/
7 Bach est une librairie de composition assistée en temps réel pour Max/MSP.
8 La génération de ces partition vidéos s’effectue peut tout aussi bien s’effectuer avec un éditeur de partions comme MuseScore
9 Rama Gottfried décrit Symbolist comme un programme de design graphique pour contrôler des éléments de notation musicale pouvant depuis Max.
10 L’objet bach.roll, éditeur en notation proportionnelle, est l’équivalent de l’objet chordseq dans OpenMusic
11 Soit l’équivalent de l’objet voice dans open music
12 Cette limitation graphique peut cependant être contournée en ajustant les paramètres de la duration line L’utilisation de couleurs est également facilement accessible à l’aide des "slots"
13 Une courte démo est disponible ici: https://youtu.be/s4qS2khwkT0.
14 Tapez SmartVox.eu directement dans la barre de votre navigateur web pour accéder à une partition
15 D’après une conversation par mail avec le développeur Aaron Wyatt.
16 Open Sound Control
17 Une captation de la création est disponible ici: https://youtu.be/hQtyu1dcCaI
18 Voir: https://youtu.be/JFvrYy6EeWE
19 Ensemble Variances, direction Thierry Pécou.
20 Avec un casque Aryzon par exemple, cf. https://www.aryzon.com/
21 https://store.vufine.com/
22 Comme dans l’exemple suivant : https://www.youtube.com/watch?v=UXkTfT828qs
23 Comme celles imaginées par Mauricio Kagel dans son film Ludwig Van (1969), see for instance: https://youtu.be/7l8vPWFIgxI?t=1591
24 Ceci requiert l’implétentation d’un ‘mediaplayer’ 360°en HTML5, e.g.: https://bitmovin.com/demos/vr-360
25 Chaque partie instrumentale/vocale de la pièce And the Sea est accessible par l’url suivante www.smartvox.eu, et peut ainsi être accessible simultanément depuis, par exemple, un iPad pour la flûte, des tablettes Android pour piano et violoncelle, et un smartphone pour la chanteuse. Le trailer de la pièce est disponible ici: https://youtu.be/prcXUbhd-ZY
26 Le groupe américain de computer network music ‘The Hub’, formé en 1986, a fortement contribué à l’épanouissement du genre.
27 Traduction de l’auteur.
28 Vers la fin de cet extrait, on peut observer trois avatars produire du son ensemble https://vimeo.com/264626943
29 Un enregistrement de la pièce est disponible à l’adresse suivante : https://youtu.be/SyFdR2HiF00
30 SmartVox a été utilisé par Richard Baker, pour les répétitions et les performances de To See The Invisible, un opéra d’Emily Howard, à Aldeburgh, Snape Maltings 2018 https://snapemaltings.co.uk/concertshistory/ aldeburgh-festival-2018/to-see-the-invisible/
31 SmartVox est open source et prêt à être téléchargé sur GitHub: https://github.com/belljonathan50/SmartVox0.1.
32 Une captation est disponible à l’adresse suivante : https://youtu.be/SyFdR2HiF00
33 Babelscores (https://www.babelscores.com/) est une maison d’éditions en ligne de partitions de musique contemporaine, elle compte parmi ses abonnés le Conservatoire de Paris, la Bibliothèque nationale de France, les université de Yale, Harvard, Stanford... BabelScore soutient activement le projet SmartVox et son extention sur Raspberry Pi http://1uh2.mj.am/nl2/1uh2/lgi4u.html.
34 Une démonstration du paramètre de liquefation est disponible au lien suivant: https://youtu.be/2kdIaqAhUGs
35 Un passage rythmique dans In Memoriam Jean-Claude Risset 1 https://youtu.be/hQtyu1dcCaI?t=349
36 Un Target sound est suivi par son imitation par le choeurs lors d’une séance de lecture de Das Hoheslied, In Memoriam Jean-Claude Risset 3 https://youtu.be/EHYq9nFF6sE
37 Le contour harmonique/rythmique de l’électronique, une fois transcrit à l’aide de Bach, est ensuite distribué aux différentes voix sous forme de jeux de hoquet: https://youtu.be/eBshi_2F20k
38 Analysis spectrale en temps réel avec Bach et Zsa.FreqPeak https://youtu.be/D6mCgx4pSxs
39 Voir https://youtu.be/OnT-Zgkh5MA pour démonstration.
40 Voir https://youtu.be/sgSjIpSD8yQ.
41 Comme dans l’exemple cité plus haut: Das Hoheslied, In Memoriam Jean-Claude Risset 3.
42 https://www.prism.cnrs.fr/
43 Your Smartest Choice, de la compositrice Huihui Cheng, est une co-production Ircam/Festival-Eclat-Stuttgart, dans laquelle le public interagit avec les artistes via leurs smartphones (voir: http://cosima.IRCAM.fr/2017/02/05/your-smartest -choice-eclatfestival/). La pièce a ensuite été jouée au Luxembourg Rainy Days Festival, le code de l’application est disponible ici: https://github.com/IRCAM-cosima/your-smartest-choice
44 Une description du projet est disponible à l’adresse suivante: https://www.decaelis.fr
45 La pièce commence par explication du principe du jeu https://youtu.be/s-VSs3TcqLk), puis explore les possibilités du système (https://youtu.be/p4tT1CQGf-A)