L’idée est d’avoir des semaines du son organisées dans tous les pays à des moments différents. De cette manière, l’événement tourne en permanence. Comme me le disait Murray Schafer, qui a été un des parrains de la semaine du son : « Le jour où on aura 52 pays qui seront lancés dans la semaine du son, l’événement aura lieu toute l’année. »
Mais on vise bien plus que cela : 200 pays. Mais on est bien partis. Je vais voir les ambassadeurs les uns après les autres maintenant qu’on a la résolution, et je leur dis « Voilà, vous avez voté la résolution, que faisons-nous avec ça ? » Nous faisons une soirée le 23 avec Jordi Savall, qui sera, je pense, extraordinaire, et à tous les ambassadeurs présents nous demanderons « Comment comptez-vous organiser cette semaine du son dans vos pays respectifs ? » Il faut être courageux, ils ont voté, il n’y a pas eu une seule abstention.
- Chez Jordi Savall, tous les musiciens sont de nationalité différente ?
En plus ! 3 choses mon plu dans l’idée de Jordi Savall. D’abord Jordi lui-même. Je ne sais pas si vous avez vu sa vidéo, elle est superbe ! Nous avons passé un moment formidable tous les 2. C’est un homme disponible, il fait partie de ces grands hommes qui ont gardé les pieds sur terre, qui ne se prennent pas pour des dieux. C’est quand même important, c’est comme Costa-Gavras. Il y en a tellement peu, des gens qui sont arrivés à un moment fort de leurs compétences et qui savent aussi garder les pieds sur terre, qui savent être humains. Deuxième chose, le 30è anniversaire du Concert des Nations, dont il est important de parler, avec des gens qui viennent de nombreux pays. Jordi est également ambassadeur de bonne volonté à l’UNESCO. Le dernier point, le 3è point important, est le thème choisi pour cette soirée : “Hommage à la terre”, qui est un thème fort, avec tout ce qu’on peut imaginer (derrière) à travers des musiciens qui sont choisis, de rameau à Purcell. Le programme est sur le site. Tout cela nous donnera une très belle soirée.
Pour toutes ces raisons, c’était la bonne personne cette année. Cela nous coûte très cher, parce qu’évidemment faire venir tous ces gens... mais à un moment donné, il faut savoir ce qu’on veut aussi. On espère également des aides de structures. Nous avons des partenaires heureusement. Mais justement, c’est bien de cela dont il est question maintenant: comment grandir intelligemment ? Comment amener, au-delà des pays, des industriels à se poser cette question du sonore comme un élément de développement sociétal, mais aussi de développement économique ?
Je suis en train de voir avec HEC ce que représente le sonore en termes de PIB. C’est beaucoup d’argent en fait. Ce sera un levier important pour la suite, qui nous permettrait de mieux considérer le sonore, ne pas l’oublier. Je pense que c’est tout aussi important que le visuel mais on n’en parle pas.
J’en discute notamment avec les scientifiques du sonore, des gens qui travaillent dans l’infrason, les suprasons, les ultra-sons, autant vous dire que les applications sont nombreuses. En médecine, par exemple, c’est très représentatif. Il y a des notions qu’on connaît et d’autres qu’on ne connaît pas. Je pensais au four à micro-ondes, ce n’est que du son, on ne l’entend pas. C’est ce qu’on appelle les ultra-sons, cela permet d’activer les molécules élémentaires.
Il y a de nombreuses applications liées au sonore dans l’industrie d’une manière générale. Nous avons beaucoup d’acousticiens dans l’industriel qui sont très conscients de cela et qui nous aident. Nous évidemment ne parlons que du sonore audible mais il existe aussi le sonore inaudible. On parle beaucoup aujourd’hui des éoliennes, on se pose la question, on demande une étude épidémiologique pour connaître l’effet des éoliennes sur le comportement, notamment dans les infrabasses, entre 0 et 20 Hz. De nombreux médecins comment à tirer la sonnette d’alarme sur les comportements de stress liés à des battements qui se trouvent dans les très basses fréquences, qui viennent en résonance avec la résonance même de chacun des organes du corps, le cœur, etc. On a des résonances qui se situent autour de 10 Hz, autrement dit tous nos organes ont des fréquences de résonance qui sont bien particulières, c’est pourquoi le corps est un véritable instrument de musique en fait avec des organes qui réagissent à certaines fréquences et pas à d’autres. Si on s’intéresse à des fréquences très basses, pas besoin d’être un grand scientifique pour comprendre que si votre cœur se met en résonance par:avec ? une fréquence qui est celle du cœur, vous allez peut-être un peu le malmener, surtout quand c’est régulier. C’est le « Rompez le pas » quand on passe sur un pont. Quand on demande à une garnison de soldats de rompre le pas quand ils marchent sur un pont, on le fait pour éviter que le rythme de leurs pas (généralement de 2 Hz, même un peu moins) entre en résonance avec la fréquence du pont qui peut alors se mettre à osciller et s’écrouler.
Le train connaît cela avec les fréquences de rupture de rail. On fait en sorte de gérer la résonance du wagon pour qu’elle soit supérieure à la résonance de la structure incitatrice. Il ne faut jamais jamais être dans la résonance. Dans votre salle de bain, vous chantez, et vous avez l’impression que le son se met à grandir. C’est la résonance de la salle de bains qui correspond au son émis par votre voix. A ce moment-là, à cette fréquence-là, vous allez avoir une espèce d’excitation monstrueuse. C’est ce qu’il faut éviter parce que précisément, lorsque vous chantez à cette fréquence-là vous allez avoir plus de niveau qu’à d’autres fréquences. Ce qui va déstabiliser totalement votre expression musicale. Les chanteurs ne doivent jamais s’exercer dans leur salle de bains. Ils ont une fausse idée de leur propre retour. Cela peut être plaisant a priori mais c’est extrêmement négatif. L’intelligence, c’est ce que font les Chinois face au mur de Tien An Men, la cité interdite :très tôt le matin, entre 4 et 5h, ils chantent devant le mur. Précisément, chanter ou jouer d’un instrument de musique devant un mur, on a le retour de son propre jeu musical. C’est une image qui vous est renvoyée par le mur, qui vous permet d’exister d’une certaine manière, le miroir du sonore, le miroir de l’invisible. Une notion extrêmement importante. De ce point de vue-là, les Asiatiques ont beaucoup plus d’avance que nous, depuis Lao Tseu. Il faut relire les 81 poèmes de Lao Tseu, je les ai toujours avec moi, plus que jamais. Le Tao Qo Qing. Un poème qui dit
( c’est le n° 11, il est extraordinaire)
Trente rayons convergent au moyeu mais c’est le vide médian qui fait marcher le char.
On façonne l’argile pour en faire des vases mais c’est du vide interne que dépend leur usage.
Une maison est percée de portes et fenêtres mais c’est encore le vide qui permet l’habitat.
L’être donne des possibilités, c’est par le non-être qu’on les utilise.
Quand j’ai lu ça j’ai tout de suite vu, évidemment, la dimension sonore du silence. On nous amène à voir les choses avec les publicitaires aujourd’hui. Tout ce monde imbécile nous dit « Regardez ! Regardez ! », et en fait on ne voit rien, on ne voit plus rien.
Ce qu’il faut, et c’est important, c’est d’entendre. Il nous reste la capacité d’écouter. Si on maintient l’ouïe encore quelque temps, elle nous permet d’entendre, de considérer, de voir différemment. C’est un peu la conclusion de cette histoire : arrêtons de regarder, écoutons pour mieux voir. Il y a, dans le sonore, de l’invisible. On ne voit pas ces molécules qui se déplacent dans l’air, qui sont pourtant nombreuses, des milliards de molécules qui sont compressées ou détendues. Il y a une espèce de ressort dans l’air...
Tout cela se crée, se joue à notre insu finalement, n’existe que sur terre, et certainement pas au-delà de notre système actuel, jusqu’à preuve du contraire. C’est intéressant. Autrement dit, c’est sur Terre qu’on écoute. En revanche on peut voir à l’extérieur. J’ai été surpris de voir ces cosmonautes arrivant sur la lune, ce qui m’a le plus émerveillé est qu’ils puissent voir comme on voit ici, à travers un hublot certes, mais la vue n’est pas remise en cause.
Alors que le son est complètement remis en cause dans la mesure où il n’y a plus d’air. C’est pour moi la vraie différence entre nos satellites et la Terre : ce défaut de pouvoir mettre en place ce qui est notre raison d’être. Pour terminer sur l’aspect du sonore : aujourd’hui on est calé entre le son et le son. On naît par le son. Le 1e r organe qui fonctionne c’est la voix (et l’oreille). L’oreille est construite dans le ventre de sa/la mère. Au bout du 5è ou du 6è mois on est déjà capable de percevoir des sensations sonores, des vibrations. Un bouchon est mis en place, s’installe dans l’oreille et disparaît assez vite... cerumen, etc. Mais on entend d’abord, j’en ai fait ‘expérience avec mon garçon : je me suis amusé à prendre le tuyau de l’aspirateur et à le placer sur le ventre de mon épouse et je voyais que cela réagissait quand je parlais. Faites-le avec n’importe quel tuyau, parlez et c’est hallucinant comme l’enfant répond. On le voit bouger tout de suite. C’est fascinant.
On meurt par le son car le son est le dernier organe. Le cri du bébé est la 1è re chose mais les yeux sont toujours fermés. Le cri arrive avant que les yeux ne s’ouvrent. On meurt par le son, le dernier organe qui fonctionne est l’oreille, les yeux se ferment avant. La mort clinique, la mort cérébrale nous rappelle que la personne entend toujours. C’est bien pour cela qu’on veille à garder le silence autour d’une personne cliniquement morte car elle entend toujours.
On entre dans un monde merveilleux qui rend intelligent, qui permet de mieux comprendre de quoi on parle. Et la musique n’en est qu’une partie.
Une question m’a été posée par une personne libanaise par Skype, elle voulait me parler des nuisances sonores, urbaines. Mais le bruit est aussi une chose positive, on a besoin du bruit pour exister. Il y a des gens qui veulent absolument s’isoler du monde extérieur. Mais il faut faire attention : si vous mettez du triple vitrage dans un immeuble ancien, vous allez découvrir votre voisin d’à côté et ce sera encore bien pire car lui ne passera pas, il restera là, les bruits de chasse d’eau, de pas, etc. Le bruit extérieur est un bruit masquant et intéressant qui a également pour but de masquer des micro-bruits, comme le cœur...
- John Cage, en chambre sourde à l’Ircam, disait qu’il n’entendait plus que son cœur.
Ce n’est pas bon, on n’est pas construit pour ça. On émet des sons nous-mêmes. J’ai bossé longtemps à l’Ircam en chambre sourde et on n’a pas envie d’y rester.
Une amie me disait qu’elle aimait bien Paris car en talons hauts le soir quand elle rentre chez elle, on ne la remarque pas. Alors que quand elle est dans une petite ville de province, on peut l’entendre. Il faut aussi considérer le bruit comme un habit, on a le droit d’être masqué par le bruit, le bruit est masquant. Il y a le masque positif et le masque négatif. Le masque positif est celui qu’on décide d’avoir car on n’a pas forcément envie d’être nu. Être nu c’est le silence. On peut aimer être nu aussi. C’est un silence qu’on se donne, qui nous permet d’avancer à ciel ouvert. Je vis ce phénomène à la campagne car quand on est à la campagne, tout est dit, tout est répété. On dit quelque chose et c’est répété par une autre personne, le bruit n’a pas joué son rôle de masquage, ça crée aussi des conflits quelquefois, il faut faire attention à ce qu’on dit quand on est à la campagne. On existe vraiment. Quand vous marchez dans la rue ou sur une route, vous êtes entendu. Une voiture qui arrive dans une cour, on l’entend et on se dit « Tiens, le Paul il est là, il est pas ailleurs ». Cela signifie que le sonore est un indicateur intéressant, le bruit que l’on réalise devient un indicateur, un marqueur, ce qui n’est pas le cas en ville. La ville a cet avantage de masquer beaucoup de choses, et le bruit fait partie effectivement du masquage. Si on voulait le voir, si on voulait lui donner une consistance visuelle, on s’apercevrait que ce serait une espèce de gris, un gris qui viendrait masquer le tableau finalement, qui enlèverait des couleurs, probablement. Mais peut-être à bon escient par instants. Même si le bruit nous enlève également les micro-bruits, le bruit de pas par exemple disparaît en ville, on ne sait plus ce que c’est. Un enfant urbain peut ne jamais savoir ce qu’est un micro-bruit, le bruit d’un pas. Alors qu’on l’a su à une époque. Un bruit de pas nous donne pas moins de 24 signifiants sur la personne : son âge, son sexe, son poids... Pour n’importe quel aveugle, le simple fait d’entendre le pas de quelqu’un permet de savoir la nature des chaussures, d’où il vient, où il va, son rythme, la rapidité des pas, son stress... il y a énormément de choses dans un pas. Mais la ville nous a éloignés de cela. Quand on voit des gens, on a l’impression qu’ils volent parce qu’ils ne sont nulle part, on le les entend plus. Cela nous enlève des capacités de perception, cela ramollit un peu tout, nous enlève du relief. C’est pour cette raison que le MP3 va bien dans cette direction. Il faut être conscient que ce bruit urbain peut aussi tout masquer. Il faut se garder des plages de silence. Mais nous ne sommes pas nombreux à être conscient de cela, le problème est là. Toutes ces raisons expliquent la désertification des salles de concert, pourtant ce sont des salles où on a encore le silence. Il reste les salles de cinéma, qui sont des lieux où on peut encore connaître le silence, avant que la présentation démarre. Maintenant elle démarre généralement avant même qu’on entre dans la salle car il y a déjà les publicités. Mais il y a des lieux de ce genre qui sont des lieux intéressants.
- Vous travaillez sur la multidiffusion au cinéma, non ?
Oui, on en parle beaucoup dans la diffusion cinématographique, la rediffusion du son. Je ne comprends pas pour quelle raison on demande aujourd’hui à apporter des bouchons d’oreilles alors qu’on devrait écouter un spectacle sonore, un concert, avec nos oreilles. Il n’y a aucune raison de distribuer dans tous les concerts des bouchons d’oreilles pour écouter un concert. Tout cela vient du fait que les enceintes sont frontales. Nous travaillons avec L-Acoustics, Christian L, là-dessus. L’idée est de mieux répartir le son et d’avoir une meilleure homogénéité de restitution et un enveloppement. Cet enveloppement est important. Dans un autre secteur d’activité qui est le mien aussi, j’organise depuis vingt ans le forum international du son multicanal. C’est un forum que j’ai organisé à Radio France, à TF1, à l’Ircam. Chaque année je changeais de lieu aussi pour amener des gens, des professionnels, à mieux travailler dans le domaine du son multicanal, dans l’immersion. Je me suis aperçu qu’effectivement quand on mixait, quand on faisait des produits en multicanal, en multidiffusion, on avait moins cette volonté de faire monter les niveaux sonores. Quand vous répartissez le son sur toutes les enceintes, ça vous permet de faire tomber le niveau sonore. C’est une réaction extrêmement intéressante. Moi je suis vraiment pour le multicanal dans les concerts, de manière à faire tomber le niveau sonore et apporter une immersion. J’ai beaucoup travaillé sur l’immersion, c’est un de mes dadas aujourd’hui encore. L’immersion répond à une notion de sécurité. Quand vous avez un son en surround, le cinéma a montré l’exemple de ce point de vue-là, mais aussi le 5.1 pour faire simple, cela fonctionne assez bien parce que cela répond à un besoin d’être dedans, être dedans pour ne pas être dehors. A notre époque, nombre de gens sont laissés sur le bord de la route, personne ne veut être dehors. Quand vous proposez un son qui met les gens en immersion, ça les rassure. Tout comme les basses fréquences rassurent les jeunes aujourd’hui. Les basses fréquences sont des longueurs d’ondes très importantes, entre 20 et 200 Hz – certaines longueurs d’ondes vont jusqu’à 16 mètres de long. Ce qui signifie que les molécules se déplacent sur des distances de l’ordre de plusieurs mètres. En fait, quand on envoie des sons graves à toute personne, on est dedans, on est vraiment immergé, c’est comme être dans l’eau. Alors que les fréquences élevées sont de petites fréquences. La fréquence élevée est de la dimension de la main, 17 cm jusqu’à 17 mm. En Hz, la main fait entre 2 000 Hz et 20 000 Hz, la dimension de la phalange, 1,7 cm. Et là 17 cm, c’est la dimension de la main généralement. Ce sont les aigus. Quand je fais « ssss », on n’a en fait que les aigus. On pense généralement que les aigus, c’est « Ahhhh ». Non, ce n’est pas les aigus. Les aigus, ce sont les sifflantes, tout ce qui se trouve au-dessus de 2 kilohertz, les voyelles, les « be », les « te », les « ssss » évidemment. Ces sifflantes sont vraiment l’articulation, le relief du son. Il ne faut pas perdre cette notion de vue, sinon il n’y a plus de relief (son étouffé). Si je fais « son, son, son, son, son », dans « son », il y a « on »: je suis à 2 kilohertz. Tout ce qui est en-dessous est mediums et basses. Quand je fais « ssss », je suis à 4-5 kilos, les sifflantes sont là. Ma voix, je la connais par cœur, est autour de 400-500 hertz. Dans « son », il y a « ssssss », qui sont des sifflantes qui n’ont pas de hauteur, ce sont des bruits blancs, mais ô combien importants mais sur « on », les médiums, je peux vous donner une hauteur. C’est la différence entre les voyelles et les consonnes. Les voyelles sont plutôt porteuses de hauteur, je peux les faire à différentes hauteurs. En revanche, avec le « ssss », je ne peux rien faire.
Pour revenir à la notion d’enveloppement, les sons graves sont omnidirectionnels, ils sont bien plus grands que la dimension de la tête ou, si j’introduis entre vous et moi cet obstacle, si je fais « ooooo », pas vraiment des basses mais nous sommes en bas médium, vous n’allez pas sentir beaucoup de différence. En revanche si je fais « sssss », je vais être aux dimensions de la main, donc plus petit que la dimension de cet obstacle. « Ssssss » : ça rebondit contre les murs évidemment mais vous devez sentir une descente, une diminution du niveau sonore. Parce que ces hautes fréquences n’arrivent pas à passer de chaque côté, à envelopper. Par contre si je parle dans les mediums, ça va passer. Les mediums vont passer mais pas les fréquences élevées.
Il faut jouer avec cela, tous mes cours tournent autour de cette notion, c’est un vrai bonheur. Parce qu’on est dans le visuel en réalité, on voit les sons, on finit par les voir finalement.
- Cela m’évoque le langage des sons dont parle Richard Kronland. Pas dans un livre mais sur son site d’acousticien, son domaine de recherche. Il a beaucoup travaillé avec Jean-Claude Risset. Vous pouvez en parler un peu ? J’en parle beaucoup à l’éducation musicale. Votre rencontre avec Jean-Claude Risset ?
Jean-Claude est décédé récemment, c’était un bon copain. Je l’ai connu à l’Ircam. J’étais assez admiratif de son travail, je pense que c’est quelqu’un qui avait bien compris la puissance des sons justement, et la force de la musique. Il était un peu en retrait par rapport à l’Ircam. Il avait cette approche très particulière, scientifique. Il avait cette dimension scientifique qu’il mettait en avant en permanence. Mais je n’ai pas travaillé avec lui, donc je ne peux pas en parler beaucoup. Je peux plus vous parler de Stockhausen avec qui j’ai travaillé plus longtemps. Je suis allée le voir dans la Forêt-Noire en compagnie de mon directeur, Alain Louvier, car nous l’avions en résidence à Paris sur une œuvre qui s’appelle Transes, une très belle œuvre qui tourne autour d’un métier à tisser qui s’ouvre et qui se ferme de gauche à droite et de droite à gauche, qui traverse l’espace, un très joli spectacle. Stockhausen a été pour moi un personnage très sensible au sonore et ce que j’ai surtout retenu de lui, parce qu’on pourrait dire beaucoup de choses sur lui, c’est qu’il avait compris une chose : le chef d’orchestre n’était pas à sa juste place, autrement dit qu’il y avait le chef d’orchestre, l’auditeur et qu’il fallait qu’il y ait entre l’auditeur et le chef d’orchestre un troisième personnage qui s’appelle le metteur en ondes ou l’ingénieur du son finalement, et c’est écrit dans toutes les partitions, dans Gruppen par exemple. Je me rends souvent à Musicora, la dernière fois que j’y suis allé on m’avait demandé de jouer ce rôle-là justement pour être sûr d’abord de la bonne implantation des formations dans Gruppen mais aussi que les sons s’harmonisent bien là où le chef d’orchestre n’a plus ce rôle. D’autant plus qu’il y en a 3 dans Gruppen. Mais le chef d’orchestre généralement n’est pas à sa meilleure place. Tout cela m’a tout de suite plu parce qu’il avait compris une chose importante, c’est qu’il y avait d’une part l’expression musicale générée par le chef d’orchestre, l’auditeur qui, lui, avait sa place, et puis une autre, et peut-être que tous les auditeurs n’avaient pas forcément la même perception en fonction de leurs places respectives mais qu’il fallait une personne pour centraliser tout cela et être le juste intermédiaire, quelqu’un qui aurait compris l’acoustique de la salle, qui doit comprendre l’acoustique de la salle, et qui puisse organiser tout cela de manière à ce que l’homogénéité se mette en place. Donc il avait compris cette notion d’homogénéité qui était fondamentale à toute expression musicale.
Je dis cela avec beaucoup de tranquillité parce que je sais que certaines salles de concert plaisent beaucoup à des chefs d’orchestre qui disent « Cette salle est merveilleuse », sauf qu’ils n’y ont jamais mis les pieds.
- Stockhausen, la seule fois où je l’ai vu, je me souviens, avait mis toute sa table au centre, à la Cité de la Musique. C’était très drôle, ce n’était pas du tout fait pour cela, mais il y avait la table de l’ingé son au milieu. C’était pour Hymnen.
Il se déplaçait en permanence.
- C’est probablement le premier, non, pour la spatialisation du son et ces choses-là ?
Oui, j’en suis persuadé, et je dirais même le dernier. Jordi me disait lors d’une discussion qu’il trouvait géniale la Philharmonie de Paris. En quoi je ne suis pas du tout d’accord : il y a des problèmes à la Philharmonie de Paris, mais effectivement je pense que sur scène ça sonne plutôt pas mal. Plus précisément, là où le chef d’orchestre se situe, on peut considérer que l’acoustique est plutôt plaisante. Mais il y a des problèmes à la Philharmonie de Paris en termes d’inhomogénéité spectrale. Il y a un gros problème notamment de basses fréquences où vous remarquerez lorsque vous avez six contrebassistes que vous n’entendez pas, notamment au niveau de tout l’orchestre, c’est une catastrophe. On a l’impression d’être complètement déséquilibré, on n’a pas de basses, ce n’est pas une salle qui vous prend par les tripes. Du coup il n’y a pas de basses. Il faut monter au premier balcon pour commencer à entendre quelque chose de plus homogène. C’est exactement l’expérience que j’ai faite en montant au deuxième balcon à l’Opéra Bastille. Je n’en revenais pas. J’avais décidé de ne pas payer ma place plus de 100 euros, donc j’ai décidé d’essayer le deuxième balcon. Je suis toujours en bas généralement et n’y suis jamais très satisfait. Au deuxième balcon, je voyais bien les musiciens de surcroît. J’avais un équilibre entre les voix et l’orchestre, c’était génial. Un ami qui se trouvait dans l’orchestre m’a demandé : « Tu n’as pas trouvé que les voix étaient beaucoup trop fortes par rapport à l’orchestre ? » J’ai répondu que pour moi c’était parfait.
L’exemple typique d’une salle qui n’est pas homogène.
Pour ce qui est de la Philharmonie, j’en parle avec beaucoup de tranquillité car je sais de quoi je parle, j’ai vu les courbes. Personne ne vous le dira à ma place car personne n’ose dire cela. Mais sur la gauche il y a un réel problème lié à des réflections très fortes qui nous viennent des violons, à travers le balcon de gauche qui n’existe pas à droite. Il faut arrêter de penser que la musique est un son qui vous arrive comme ça, non, il y a des réflections. Et ce que vous percevez c’est une somme de sons directs et de réflections. Donc la moindre des choses est d’imaginer une symétrie gauche-droite. Même si l’architecte s’appelle Nouvel, l’acoustique peut être un problème. Les acousticiens ne vous diront jamais ce que je vous dis car ils sont trop contents d’avoir fait la Philharmonie de Paris, de fait ils la défendront. Alors qu’on sait pertinemment que la Philharmonie ne sera jamais une salle citée au niveau international.
La troisième raison qui nous ramène à la première question, c’était le théâtre antique. On avait un proscenium qui n’existe plus aujourd’hui dans nombre de salles. Dans la Philharmonie encore moins. Autrement dit, vous avez des gens qu’on ose mettre à deux mètres du premier violon. Et alors là...
Si on avait un peu d’intelligence, on dirait : un orchestre doit se construire d’abord. Avant d’écouter un orchestre il faut qu’il se construise. Il faut qu’il se construise en globalité, que ce ne soit qu’un instrument. Toutes les salles qu’on fait aujourd’hui sont beaucoup trop analytiques et c’est un autre souci, comme c’est le cas à la Philharmonie.
- Pas assez de réverbération ?
Ce n’est pas une question de réverbération, c’est une question d’analytique. Cela signifie qu’on n’a pas d’effet de fusion de l’orchestre. Donc on entend tous les instruments les uns après les autres. C’est ce qu’on avait notamment avec la salle Pleyel quand elle a été refaite il y a dix ans. On avait dit que c’était la plus belle salle du monde. Je me trouvais à l’inauguration avec Jean-Marie Piel qui était le rédacteur en chef de Diapason et nous trouvions vraiment que la salle sonnait d’une manière décevante, tellement analytique. On entendait tous les instrumentistes mais on n’avait aucune musique. Un orchestre, ça doit être un instrument. C’était épouvantable parce que cela devenait trop précis, si je puis dire. C’est lié aux premières réflections, trop importantes. Nous pouvons donner de nombreuses explications là-dessus.
Nous voyons à la pause l’acousticien japonais qui avait œuvré sur le projet pour comprendre pourquoi il avait fait quelque chose d’aussi analytique. Il répond qu’il a voulu réaliser une salle au plus près de l’écoute home theater. Hallucinant ! Le Monde avait titré « La plus belle salle au monde » mais nous savions bien que c’était loin d’être le cas. Alors Jean-Marie Piel le regarde et lui dit « Quand est-ce que vous allez nous faire une salle MP3 ? Ce serait intéressant ! »
- Et du coup, la salle a été refaite suite à cela ?
Elle a été démolie et a été refaite. On en a fait une salle de spectacle de variétés. Aujourd’hui elle a été matée un peu plus, on a tout maté parce qu’on savait très bien que c’était une salle qui ne fonctionnait pas.
- Une des seules fois où vraiment j’ai été absolument ébloui par l’acoustique, c’était le Wigmore Hall à Londres, une salle très classique avec une scène en alcôve. Là vraiment j’avais l’impression de tout entendre, c’était très frappant.
Il y a une salle pas très loin de chez nous qui est excellente, c’est le Concertgebouw à Amsterdam, une salle magnifique. Il y a la Philharmonie de Vienne, magnifique ; la Musikverein qui est absolument extraordinaire aussi ; Boston, une très belle salle que je ne connais pas mais dont on m’a dit beaucoup de bien, et j’aimerais écouter celle d’Hambourg qui vient de sortir.
- J’ai de nombreuses questions. La première chose que j’ai remarquée concerne votre effort d’être sur l’ensemble du territoire français.
Mon idée est d’amener cette prise de conscience dans 60 villes françaises, et à l’international.
- Ces 2 prix, Phonurgia Nova de la création radiophonique sonore et Concours, est-ce que ce sont des appels pour les jeunes créateurs ?
Oui, car je pense que tout ce qui nous amène à concevoir, tout ce qui touche à la création sonore est important. La musique fait partie du sonore comme le bruit fait partie du sonore. L’important est que nous soyons acteurs du sonore. Arrêtons d’écouter uniquement, il faut aussi construire. Quand on travaille le son sur ordinateur, on le construit, c’est un peu comme jouer finalement. Il y a vraiment une action, une appropriation du sonore qui participe justement à la connaissance du sonore. Savoir monter un son sur un ordinateur est une activité intéressante, avec la restriction qui s’impose qui est celle du visuel quelquefois un peu trop lourd. Toutes les bandes montage qu’on trouve aujourd’hui sur ordinateur sont des bandes montage un peu trop visuelles à mon sens. Du coup on monte à l’image, on monte visuellement mais on ne monte pas assez à l’oreille, me semble-t-il. C’est un peu le problème.
C’est pour cela que la création radiophonique, Phonurgia Nova, qui est partenaire et qu’on essaie de mettre en avant, est pour nous un lieu extrêmement intelligent et de création. Comme nous avons lancé aussi le grand prix à Cannes. Hier matin, nous étions dans un audi à Polyssons où nous nous sommes rendus pour le concours intitulé « Quand le son crée l’image » qui m’a paru intéressant. Nous avons monté cela avec Greco Casadesus il y a deux ans. L’idée était d’imaginer une bande son d’une minute quarante, donc assez courte, à partir de laquelle on pourrait créer des films, imaginer un véritable scénario de l’image. Nous avons lancé cela au niveau international avec l’Institut français. Nous avons eu des réponses du monde entier, cinquante films absolument incroyables. A partir de la même musique, cela a permis un développement de l’image absolument incroyable. Tout cela pour démontrer à quel point le sonore est un véhicule de l’image.
- C’est le modèle du ballet classique finalement : on fait la musique d’abord.
Oui, absolument. Sur YouTube, on trouve « Concours 21018 - Quand le son crée l’image ». La musique a été imaginée par Jean Musy. Regardez un exemple...
- Je lisais ce matin qu’il a fait plus de mille 45 tours.
Dans ce morceau, je lui ai demandé une rupture.
- C’est drôle en fonction des films, on n’a pas l’impression qu’il s’agit de la même musique. C’est fascinant. Comme ces opéras qu’on fait de toutes les manières, à partir de la même musique.
Prenez n’importe laquelle, par exemple celle-ci vient d’un Russe. Vous regarderez, cela vaut le coup, je vous envoie le lien.
- On avait demandé à un chanteur, John Greaves, qui était pas mal présent à la radio, de faire une musique de film. Il commence à mettre toutes ses musiques et dit « Mais finalement tout marche ! »
Tout ce qui participe à la création musicale et à l’écoute évidemment, savoir écouter, ils travaillent beaucoup en multicanal justement, spatialisation, etc.
- Le musicien classique travaille souvent avec une portée musicale que l’on pourrait considérer comme une version archaïque des représentations temps/fréquence des spectrogrammes des acousticiens. Pourtant le rapport musique et science du sonore ne va pas toujours de soi. A votre avis, pourquoi? Musique et acoustique plutôt. La représentation est la même et pourtant ça ne saute pas aux yeux et les musiciens ne pensent pas comme les acousticiens.
C’est une question intéressante. La première chose qu’il faut exprimer, je m’en suis rendu compte en étant au Conservatoire de Paris, c’est que les musiciens ne sont pas du tout dans l’acoustique. Ils sont dans le jeu et ils n’ont pas compris, il n’y a pas chez eux de conscientisation du fait que leur instrument faisait partie d’un tout et que ce qu’ils produisaient était non seulement le fruit de leur jeu instrumental mais également de l’acoustique du lieu, et des premières réflections en particulier. C’est très important.
Le musicien exprime quelque chose d’un peu viscéral. Il va jouer et ne va pas se poser la question de savoir où se placer. Lors de mes enregistrements, je passe beaucoup de temps avec eux pour leur dire de s’écouter déjà soi-même mais aussi de s’écouter jouer entre eux. Je me souviens du quatuor Alban Berg que nous avions enregistré et qui avait joué sur une scène parisienne où il y avait de lourds rideaux rouges, très absorbants. Les instrumentistes étaient tous les quatre installés sur cette scène du 9ème arrondissement et ne s’entendaient pas entre eux. Evidemment il n’y avait pas de réflexion naturelle qui leur permettait de s’écouter, de s’entendre. Du coup leur jeu était assez imparfait, ils n’étaient pas ensemble. Dans la salle ce soir-là on a dit « Ils ont mal vieilli ». On ne voit pas les choses dans leur globalité. La musique doit se comprendre par l’expression de chacun évidemment mais aussi par le rendu collectif et aussi à travers le lieu dans lequel on se trouve. Encore une fois, cela rejoint Lao Tseu. Il faut arrêter de voir et essayer d’écouter dans une globalité totale.
Les musiciens eux-mêmes ne connaissent pas le fonctionnement de leurs instruments. On est dans l’acoustique.
A contrario, l’acousticien n’est pas forcément musicien, c’est le cas de nombre d’entre eux. Ils parlent de technique, de physique, d’isolement. Malheureusement je n’ai pas beaucoup d’acousticiens dans mon entourage qui sont musiciens et qui ont cette capacité à entendre, à vibrer au-delà des formules qui sont nombreuses. L’acoustique est une science relativement exacte mais il y a le petit plus derrière qui fait à un moment donné qu’il faut échapper à ces formules pour aller trouver la faille et on n’arrive difficilement à modéliser certains éléments. Là par exemple s’il fallait modéliser la manière dont la table fonctionne entre vous et moi, nous nous trouverions en difficulté car nombre d’éléments interviennent : le son direct de ma voix que vous percevez mais aussi la réflection de cette table qui joue énormément sur le rendu. Là par exemple si je place ce matériau, si vous fermez les yeux, vous allez sentir une grande différence. L’acoustique, c’est d’abord cela et il faut le comprendre pour aller plus avant.
J’aurais ce langage aussi vis-à-vis des architectes. Modéliser cela est difficile : les longueurs d’ondes sont des éléments sur lesquels je travaille beaucoup, la dimension de la longueur d’ondes par rapport à la dimension de l’objet rencontré. Cela m’aide beaucoup. Je vois tout de suite si cet élément va jouer un rôle de réflecteur ou pas, s’il va casser ou s’il va diffuser. Il y a une notion très différente entre la réflexion et la diffraction. Soit le son explose, dans ce cas il faut que la surface soit rugueuse pour qu’il y puisse y avoir une diffraction. Si la surface est lisse, ce sera une réflection, qui n’est jamais une très bonne chose. On « préfère » la diffraction, bien plus riche. Il faut aussi savoir qu’un micro n’est pas la même chose qu’une oreille, personne n’a compris cela mais c’est fondamental. Si par exemple je vous parle et que je vous envoie un son avec les réflections de la table, vous allez me dire « Tiens, ça donne plus de timbre, plus de clarté » quand je me rapproche de la table.
Maintenant si vous mettez votre micro à la place de votre oreille, vous allez sentir ce qu’on appelle un filtre en peigne, c’est-à-dire qu’il va y avoir des moments où le son va être en opposition de phase par rapport à l’autre son. Le son direct va être en opposition de phase par rapport à la réflection de ta table. Ce qui va se traduire par des annulations de phases et de fréquences qui vont faire que le son va devenir épouvantable. Alors que l’oreille ne fonctionne pas de la même manière. Il faut savoir cela quand on fait de la prise de son. Le micro n’a rien à voir avec l’oreille.
L’oreille travaille en énergie. Quand vous faites l’addition du son direct avec la réflection, vous additionnez deux énergies. Les énergies par définition sur le plan physique n’ont pas de sens, ni en plus ni en moins. C’est toujours une notion « en carré ». Alors que lorsque vous enregistrez avec un micro, vous additionnez des pressions, une pression positive et une pression négative, et cela peut s’annuler. Le musicien ne s’occupe pas de cela, ce n’est pas son problème, mais je pense que si cette notion était un peu plus connue, cela nous permettrait d’améliorer aussi l’expression musicale.
- Pour vous paraphraser : « Au Conservatoire, j’ai été frappé de voir des élèves de FSMS (Formation aux Métiers du Son) capables non seulement de lire la musique, mais de l’arranger et la jouer, faire des commentaires de direction artistique relevant du chef d’orchestre. » N’y aurait-il pas tout un volet de la formation musicale à repenser au Conservatoire et en collège ?
Je suis à l’origine de la FSMS. Dans ma carrière, outre Radio France et l’INA, j’ai eu un troisième lit professionnel en tant que salarié, comme ingénieur aux Arts et Métiers. J’ai été recruté par Alain Poirier comme directeur technique pour lancer le Conservatoire de la Villette. J’ai gagné le concours et je suis entré comme directeur technique, j’ai monté tout une équipe audiovisuelle (image et son) avec Michel Philippot que j’aimais beaucoup. Alain m’a confié la mission de lancer une formation supérieure du son qui n’existait pas. Il n’y avait pas de formation Tonmeister en France jusqu’alors, elle n’a existé qu’à Detmold et à Berlin. C’était un projet extrêmement intéressant. J’ai monté un comité pédagogique et demandé à Michel Philippot d’apporter sa collaboration. Michel Philippot était un ami et un excellent pédagogue, un compositeur assez connu qui travaillait à l’époque de Pierre Boulez et très proche également de l’homme qui avait lancé les écoles de musique. Il a fallu que je trouve de l’argent pour lancer tous ces studios, nous en avions 5 ou 6, et faire fonctionner cette formation. Nous avons lancé les premiers concours pour savoir qui allait entrer dans cette formation.
J’ai personnellement embauché Jean-Marc Lyzwa et Jean-Christophe Messonier. J’avais recruté ce dernier, qui n’a jamais été élève à la FSMS, avant même que la formation ne démarre avec Catherine de Boishéraud que j’avais débauchée de Radio France à l’époque. J’ai lancé une équipe autour de ces trois personnes, puis elle s’est étoffée. Avec eux j’ai créé le « Centre du Visuel ». A partir de là, nous avons lancé cette formation FSMS. Le centre du Visuel avait cette dimension pédagogique : il fallait certes enregistrer, faire des enregistrements, répondre aux besoins d’enregistrements des élèves musiciens et également imaginer cette formation.
- J’ai personnellement trouvé ce côté interdisciplinaire très intéressant, avec de beaux résultats.
C’est exactement cela : interdisciplinaire. Ca me plaisait beaucoup de voir un large spectre de profils, des gens qui n’étaient pas uniquement des techniciens ou des scientifiques, mais aussi des musiciens. Nous avons eu cette double formation. Nous avons trouvé facilement des candidats qui avaient à la fois le profil d’ingénieurs, s’intéressaient aux sciences, et celui de musiciens de haut niveau.
Ensuite nous voulions réaliser le diplôme d’ingénieur du son, on a essayé comme on a pu mais on s’est heurté à la commission du titre qui nous obligeait à y mettre beaucoup trop de théorie. Du coup on a beaucoup de pratique de la prise de son justement. Et c’est un gros souci.
- A la FSMS ils ne sortaient pas avec un diplôme d’ingénieur du son ?
Non. La FSMS ne sort avec aucun diplôme si ce n’est celui de l’école. Comme l’ENA. Les grandes écoles n’ont pas de diplôme, le Conservatoire de Paris, les Hôpitaux de Paris (ancien des hôpitaux de Paris, dit-on)... Il n’y a pas de diplôme d’ingénieur comme lors d’une formation d’architecte dans une école d’architecture, vous avez le diplôme d’architecte. La commission du titre nous obligeait à y mettre beaucoup trop de théorie et nous ne pouvions pas. Et aussi, un Conservatoire n’était pas le lieu d’un tel enseignement.
Pour moi c’était aussi une revanche : après avoir passé mon diplôme d’ingénieur d’État au Conservatoire des Arts et Métiers, ce qui m’a pris quand même sept ans, quand je suis revenu à Radio France après avoir fait un an ainsi qu’une thèse à l’Ircam, je pensais qu’enfin je pourrais utiliser mes compétences, faire avancer la prise de son.
- Quel est l’intitulé de votre thèse ?
Mon travail était basé sur l’utilisation du critère d’acoustique au service de la prise de son. J’étais probablement le premier à faire ce lien entre la théorie et ce que je voyais à l’époque : des ingénieurs du son, « les grandes oreilles » comme on les appelait à radio France, qui, quand je leur posais la question, étaient incapables de m’expliquer comment ils travaillaient car, pour eux, il n’y avait pas de théorie. Et quand je me suis mis, moi, à faire la prise de son, j’avais à l’époque un IUT d‘électronique et j’avais fait un peu de physique, je me rendais bien compte qu’il y avait des choses à dire sur un plan physique. C’est ainsi que j’ai commencé les cours du soir au Cnam avec Jacques Jouanneau et je me suis rendu compte très rapidement à ce moment-là qu’il y avait une notion très intéressante en acoustique des salles sur les questions de clarté, d’intelligibilité et qui permettaient d’expliquer justement l’utilisation du couple stéréophonique. Donc j’ai bâti toute ma thèse sur la relation entre des critères d’évaluation de la scène stéréophonique à partir de critères d’acoustique des salles. J’utilisais des critères d’acoustique pour décrire des systèmes de prise de son. J’ai comparé pendant une année des systèmes de prises de son stéréophoniques à partir de critères acoustiques. C’était vraiment une première. Ensuite Jean-Christophe a à son tour passé un diplôme d’ingénieur au Cnam et continué dans cette voie.
Pour terminer, au-delà de cette rencontre, quand je suis retourné à Radio France avec cette compétence (j’étais toujours à Radio France, j’avais simplement été détaché de Radio France à l’Ina), je me suis retrouvé face au système. On m’a dit : « On a un problème avec vous, c’est que vous ne pouvez plus faire de prise de son, car la convention collective nous interdit d’utiliser un ingénieur d’État en prise de son. » Il n’y a toujours aucun ingénieur d’État qui fait de la prise de son à Radio France. « On vous garde, évidemment, on sera heureux de vous avoir au service technique, vous ferez les tableaux de service. »
- C’est votre diplôme qui vous a empêché d’avoir le poste ?
Mon diplôme m’a coulé, en effet. Je rencontre le directeur qui me dit: « Avec les compétences que vous avez, je vous conseille de quitter Radio France car il n’y a rien à faire ici, allez à TF1 ! »
A TF1, ils me proposaient un poste de grand directeur technique du son mais je ne faisais plus de prise de son. J’étais très ennuyé et donc j’ai refusé à TF1, ce qui ne se fait jamais, un nouveau poste de directeur technique son qui s’ouvrait. Du coup, quand j’ai vu arriver ce concours du Conservatoire, je me suis dit que c’était exactement ce que je voulais faire et ça m’a permis de continuer la prise de son. J’ai beaucoup travaillé avec Pierre-Yves Artaud, de nombreux musiciens comme Betsy Jolas, également des compositeurs comme Thierry Eschaich. Puis nous avons lancé la formation aux métiers du son. A ce moment-là a démarré une autre formation: la classe d’improvisation de jazz. Puis est intervenu un changement de direction. J’ai fait un travail incroyable, j’étais très content de cette affaire. Daniel Zalay a ensuite pris mon poste à la tête de cette formation aux métiers du son, puis Georges Bloch.
J’ai eu un gros problème avec un organiste qui a pris la succession d’Alain Louvier. Quand on ne compte pas son temps, qu’on s’investit beaucoup, qui fait que ça marche, on peut aussi se créer des inimitiés que je n’avais pas imaginées.
Et j’ai eu des chefs de services qui ont profité du changement de direction pour me demander de partir et qui m’ont un peu coulé, je dois dire.
C’est Xavier Darras qui est arrivé entretemps, qui est un organiste. Et on est allé le voir avant moi et on lui a dit « Hugonnet, C’est l’État dans l’État ». Ce garçon n’avait pas du tout l’étoffe d’un directeur, il s’installe et deux jours plus tard il me demande de quitter le Conservatoire. J’ai donc quitté le Conservatoire. Je sais ce que je vaux donc tout va bien. Cela fait partie des expériences de la vie. C’est TF1 qui m’a rattrapé et a démarré la stéréophonie à la télévision et avait besoin de moi pour lancer l’événement. J’ai travaillé pendant six mois à TF1 en indépendant, je me suis mis en libéral, c’était génial. J’ai fait de nombreuses formations pour la télévision et la radio, comme indépendant. J’ai fait 5-6 fois le tour du monde pour RFO, soixante stages de deux semaines pour RFO, j’étais toujours parti, de Wallis à Saint-Pierre-et-Miquelon.
Tout cela a apporté beaucoup à cette aventure de la semaine du son. Mon parcours m’a amené à voir des tas de manières différentes de concevoir la musique à travers des instruments merveilleux que j’ignorais totalement. Je suis allé en Indonésie, j’ai beaucoup travaillé sur la musique de Damian, j’ai fait de nombreux enregistrements à Jojakarta, je suis allé en Chine... J’ai bien compris tout cela.
Encore aujourd’hui, je continue mes cours une fois par an à Cuba. Je travaille pour une structure importante qui s’appelle l’EICTV, qui est un peu l’équivalent de la Femis, une école de cinéma, où je donne des cours de prise de son musical, je me fais vraiment plaisir. Cette formation m’a beaucoup touché. Je ne savais pas que vous connaissiez ce secteur.
- Quand j’étais étudiant en composition d’écriture, je les côtoyais et je trouvais génial le fait qu’ils sachent tout faire.
Pour répondre à votre question plus précisément, j’ai un projet que j’avais imaginé pour la Philharmonie de Paris, qui est une salle à acoustique variable, que j’avais imaginé dans l’esprit de Pierre Boulez. L’ego de Nouvel était si fort qu’il n’a même pas regardé le projet, qui m’est revenu et que j’ai toujours conservé. Un projet merveilleux que j’essaie de réaliser à Cuba, une salle de 1 500 places complètement révolutionnaire sur un plan conceptuel qui permettrait d’obtenir des conditions acoustiques adaptées à toutes sortes d’instruments de musique, toutes sortes de formations musicales avec une réverbération qui irait de 0,3 à 0,4 jusqu’à 2,5, l’outil dédié à la musique qui serait adapté à l’expression musicale. Le fruit de toute ma réflexion.
- Comment peut-on modifier l’acoustique ? Avec des panneaux ? Comment ça marche ?
Ça marche. Je ne peux pas vous en dire plus mais c’est un système très simple qui permet en un instant, en un clic, sans toucher au volume, de jouer sur des paramètres, avec une conception très moderne, très actuelle du positionnement des spectateurs. Ce projet répond à cette problématique « acoustique et musique ». L’Ircam, c’était cela : acoustique et musique. J’ai toujours considéré qu’il fallait que les deux notions s’interpénètrent. Je n’envisage pas l’un sans l’autre, ça m’est personnel. On peut avoir d’excellents virtuoses qui ne sont pas dans l’acoustique. On peut avoir d’excellents techniciens, les plus grands acousticiens, qui travaillent sur des acoustiques qu’on n’imagine même pas, qui sont liés à l’acoustique vibratoire et qui ne sont pas dans la musique.
- Je crois que c’est à Stanford qu’ils sont en train de faire quelque chose avec des haut-parleurs qui seraient capables de modifier en temps réel l’acoustique des salles.
Je suis allé à l’Opéra de Mixit, dans le cadre d’une semaine du son, et on m’avait demandé de revenir pour donner mon avis d’expert sur une salle entièrement équipée d’enceintes actives, ce qu’on appelle l’acoustique active, qui permet de modéliser une salle.
- C’est de l’ordre du réalisable ou cela reste encore utopique ?
C’est réalisable et cela fonctionne. Cela dit, je m’y étais opposé mais c’était trop tard, ils avaient déjà acheté les enceintes.
- Pourquoi y étiez-vous opposé ?
J’y suis opposé pour la raison que je vous ai expliquée tout à l’heure : le microphone ne répond pas à l’oreille, n’a pas la même fonction que l’oreille. Que mettez-vous dans cette réverbération, dans ces effets de sonorisation ? Vous y mettez des éléments enregistrés en temps réel, forcément. Il faut bien passer par une captation. Or la captation capte avec un microphone qui n’est pas l’oreille. Ce qui signifie qu’on n’entend pas la même chose. Ce que captera le micro, et ce que reproduira le micro, ne sera jamais à la hauteur de l’oreille. Le problème est là. Alors on peut toujours écouter de la musique, la prise de son est faite pour cela, pour donner l’illusion d’être dans la salle mais on n’y sera jamais comme avec nos oreilles, ni avec le meilleur des systèmes quel qu’il soit. Car le système de captation n’est pas adapté. C’est le même problème pour les aides auditives. Je travaille beaucoup avec des audioprothésistes. La prothèse auditive est construite sur un microphone. Le microphone déjà en soi pose problème.
- Pour ces histoires de filtre en peigne et de phase dont vous parliez tout à l’heure, c’est cela ?
Oui, par exemple. Le micro ne fait pas de distinction. Si vous saviez comme notre écoute est extraordinaire ! Vous avez deux sons que vous percevez à deux endroits différents dans l’espace, c’est fondamental. Vous mettez un micro à la place : celui-ci les additionne. La localisation, la discrimination angulaire, est aussi importante que la captation finalement en termes de perception auditive. Avec deux micros, on peut faire une prise de son de différentes intensités, différences de temps. Cela permet d’obtenir la stéréophonie ou le multicanal. Je suis très favorable à cela, il faut le faire.
- On parle énormément de binaural.
Le binaural, c’est quand même toujours à travers des micros. Si vous mettiez deux micros à la place de vos tympans en écoutant directement, et que vous pensiez entendre la même chose, eh bien non ! Même avec des micros qui feraient la même dimension que des tympans, ce n’est pas la même chose, cela devrait mais non. Les prothèses auditives butent là-dessus, notamment sur la notion de localisation et de discrimination angulaire. Tout le problème des gens appareillés est qu’ils sont plus malheureux qu’avant sur la notion de discrimination angulaire. C’est-à-dire qu’en présence de plusieurs personnes par exemple, ils sont incapables de discriminer une personne parmi d’autres. C’est ce qu’on appelle l’écoute intelligente ou l’effet cocktail party, qui consiste à prendre une personne parmi d’autres, dissocier une personne d’un tout.
- Il faut essentiellement qu’un son arrive plutôt d’une direction que d’une autre, ou c’est plus compliqué je suppose ?
Plusieurs éléments interviennent. C’est l’écoute sélective que les Anglais appellent aussi l’effet cocktail party. Vous êtes dans une soirée, vous discutez avec quelqu’un, vous regardez la personne mais en fait vous entendez quelqu’un d’autre, qui peut être très loin mais que vous allez chercher avec l’oreille. Je m’amuse beaucoup avec ça. Les Anglais ont bien compris l’affaire. Nous, nous appelons ça l’écoute intelligente. Cet effet, vous ne l’avez pas avec les prothèses.
On perd aussi cette faculté avec le vieillissement. D’abord on perd les fréquences élevées, celles qui permettent de garder le relief, la voix, les transitoires. C’est pour cette raison que les jeunes aiment beaucoup les basses fréquences, pour toutes les raisons de sécurité dont nous avons parlé tout à l’heure. Ils aiment les basses fréquences parce qu’ils sont immergés, ils sont dedans. C’est rassurant les basses aussi car cela vient des personnes adultes. Quand on est adulte, la voix s’épaissit, la corde vocale s’épaissit et on devient mature par le son, par les graves qui s’installent. Pour un jeune, entendre un grave, c’est rassurant, non seulement sur un plan de spatialisation, immersion dont on parlait tout à l’heure mais aussi sur un plan de la maturité. Le sage a toujours une voix grave. D’ailleurs il m’arrive de traiter des politiques qui me demandent de corriger leurs voix. Il y a des critères dans la voix qui sont indispensables pour acquérir une notoriété et une crédibilité. On ne parle pas avec une voix de canard. Macron d’ailleurs n’a pas une voix extraordinaire, il a une déficience à ce niveau-là, il parle beaucoup trop perché. Il gagnerait à se stabiliser par le bas et cela changerait beaucoup de choses. Strauss-Kahn avait une voix impeccable.
La voix se travaille, il faut jouer aussi sur le timbre. Ce n’est pas qu’une question musicale. Quand on s’exprime, on va vers le haut, vers le bas... on joue avec tout cela, on installe des silences... La voix est tellement importante à tous les niveaux...
Donc les graves appartiennent à la maturité, les aigus à la jeunesse. Tout simplement parce que le cri de l’enfant à la naissance se situe dans les aigus. Tout ce qui est petit génère effectivement des hautes fréquences : l’oiseau ne va pas vous donner des graves, contrairement à l’éléphant.
- Trevor Wishart fait exactement cette remarque en parlant des oiseaux et des reptiles.
Je suis en train d’écrire un livre sur tout ce dont nous parlons, dont le titre sera peut-être bien « Le bruit des riches et le silence des pauvres ». Les aigus sont petits, petite longueur d’onde, effectivement c’est la jeunesse. Mais également, c’est l’articulation. Que demande une personne âgée ? La jeunesse ! Une personne âgée n’a plus la jeunesse, également sur un plan sonore. Car ce sont les aigus qui partent les premiers.
- Est-ce que ça les rassure émotionnellement d’avoir des aigus ?
Non seulement ça les rassure mais ça leur permettrait d’entendre d’abord. Beaucoup de personnes âgées ont des problèmes d’oreille, disent qu’elles entendent bien mais elles ne comprennent plus. C’est la différence entre entendre et comprendre. Ils entendent, généralement ils disent « Arrête de parler si fort mais je ne comprends pas ce que tu dis ! » C’est l’articulation qui leur manque, le relief, qui appartient aux fréquences élevées.
- Je me suis toujours demandé si, au bout d’un moment, avec les prothèses, il n’était pas fatigant d’avoir des sons qui arrivent tout le temps.
Certainement. Encore une fois, ce qui est gênant dans la prothèse, c’est surtout l’absence de discrimination. Il faut comprendre que l’organe de l’audition est avant tout fait pour localiser les sources dans l’espace et surtout, cerveau reptilien oblige, localiser le danger : ne pas se faire manger par le lion qui arrive par-derrière.
- Merci beaucoup, j’ai appris beaucoup de choses. Je vais certainement publier cette interview sur plusieurs numéros. Très bonne idée de Jean-Etienne Mittelman d’avoir ajouté dans l’Education musicale « Musicologie et son » et je trouve génial qu’on aille dans cette direction !
L’éducation à l’écoute et au son est très importante.
- A Marseille, j’enseigne dans un nouveau master un peu calqué sur ATIAM. Ce sont des anciens du LMA qui travaillent maintenant au sein d’un labo qui s’appelle Prism, dans lequel on enseigne à une vingtaine de Masters « Acoustique et musicologie ».
Je fais pas mal de conférence avec des tas d’exemples sonores, n’hésitez pas à m’appeler.
- Il y a quelqu’un de ce labo Prism d’Aubagne, Satis, qui est présent à la semaine du son, Rémi Adjiman.
Avec Rémi, nous avons fait l’une des premières semaines du son au Mexique. J’ai publié cet ouvrage en plusieurs temps, j’ai intégré le multicanal mais avec une approche basée sur le bons sens. Ce livre marche très bien, il est dans toutes les écoles.
- A l’occasion, je vous demanderai d’en publier une page ou un petit extrait, je verrai.
transcription par Alexandrine AMEZIANE et Jonathan BELL