L'info culturelle des musiques d'hier et d'aujourd'hui
SON & TECHNIQUE

L’IRCAM, TRAITEMENT, TRANSFORMATION ET
INNOVATION SONORE

Ils transforment les voix, spatialisent la musique et font même parler les voitures : depuis cinquante ans, chaque jour un peu plus, les scientifiques de l'IRCAM révolutionnent notre environnement sonore.


À DIX MÈTRES SOUS BEAUBOURG

On a vu des gens heureux. Jeunes et moins jeunes, avançant tous dans le même sens. Des chercheurs, confirmés ou novices, l'œil vif et l'oreille alerte, œuvrant sous un même toit - ou plutôt dans un même sous-sol, celui de l'IRCAM. On s'attendait à tout en descendant les étages qui mènent aux laboratoires sonores de l'Institut de recherche et coordination acoustique/musique (1) - à dix mètres sous Beaubourg, à Paris : on pensait croiser des savants un peu fous, des acousticiens obsessionnels, d'austères amoureux des fréquences sonores, mais on n'avait pas imaginé tomber sur autant de mines réjouies, de plaisir palpable à travailler ensemble, dans le cadre de recherches appliquées si prometteuses qu'elles semblent donner à ceux qui les portent une énergie contagieuse.

Non, l'IRCAM n'est pas un monastère pour scientifiques isolés. C'est un lieu ouvert sur le monde qui travaille à lui dessiner un avenir sonore meilleur. Ici, des directeurs de labos aux boucles grisonnantes encadrent les travaux de jeunes doctorants venus de France ou de l'étranger. Passions communes : le son, la musique, l'innovation. Religion partagée : œuvrer dans l'archiconcret, dans l'applicable, le futur proche.

© Martin Guy - wikipedia - Salle des machines de l'IRCAM en 1989


LE SON, LA VOIX ET SON CLONE

Regardez par exemple les travaux qu'encadre Xavier Rodet, grand nom et figure historique de l'IRCAM. La spécialité du laboratoire que ce petit homme tonique et chaleureux encadre, c'est la transformation et la synthèse de voix parlées. Un parfait exemple de domaine ancré dans le concret, puisqu'il n'est pas rare pour cette équipe de recevoir la visite de cinéastes ou de metteurs en scène de théâtre : c'est dans cette pièce qu'est née la voix de castrat de Farinelli, recréée par transformation des voix d'une soprano et d'un contre-ténor ; ici que l'accent français de Gérard Depardieu parlant anglais, dans Vatel, de Roland Joffé, a été, à la demande du réalisateur, « sauvé du désastre ». « Voilà pour la partie la plus médiatisée de notre travail, explique le chercheur, mais, en fait, les applications sont de plus en plus diversifiées : au-delà du cinéma, on a besoin de voix de synthèse pour les ordinateurs, pour les jeux vidéo, et bientôt, peut-être, pour suppléer les journalistes et faire lire par des voix synthétiques les informations à mesure que les agences de presse les envoient. Qui sait ? »

À partir d'une même voix, d'une même phrase enregistrée, toutes les humeurs, tous les tons sont possibles : « moulinée » par les algorithmes créés par ses chercheurs, la parole peut devenir enjouée, triste, sentencieuse, distante, chaleureuse, outrée ou... ivre. Xavier Rodet : « On peut faire beaucoup de choses à partir du même segment : changer l'humeur, mais aussi l'accent, lui donner un côté régional ou un accent étranger. » Plus étonnant encore : à partir d'enregistrements anciens, on peut « faire dire » ce qu'on veut à une voix, notamment à une voix connue. Démonstration avec la lecture, par la voix reconstituée d'André Dussollier, d'un texte qu'il n'a jamais lu. Le résultat est assez sidérant : on croirait vraiment entendre l'acteur, mais ce n'est que son clone vocal, un ordinateur, qui déclame. « On peut ainsi reconstituer des discours de Charles De Gaulle dont il n'existe pas d'enregistrement, poursuit Xavier Rodet, ou donner à entendre la voix.


UN PLUG-IN POUR SON ORDINATEUR


Depuis des années, le laboratoire dirigé par Rodet écrit ses propres programmes informatiques, ligne de code après ligne de code et crée ses propres logiciels. Colossal travail de fourmis illuminées qui peut aboutir à des applications destinées au grand public : cette année, pour la première fois dans l'histoire de l'IRCAM, sera commercialisé ce qu'on appelle un « plug-in », c'est-à-dire un programme que l'on installe dans son ordinateur personnel, reprenant une partie des trouvailles de la maison. Avec cet outil haut de gamme (vendu 400 euros), chacun pourra modifier, remodeler sa voix, en temps réel. De plusieurs dizaines de façons. Un deuxième plug-in, révolutionnaire dans le domaine de la spatialisation du son (le fait de déplacer un signal sonore dans l'espace), suivra peu après, celui-ci étant plutôt destiné à des professionnels - des studios d'enregistrement, notamment. Dans le milieu du son et de la musique, l'annonce de ces deux lancements commerciaux a fait beaucoup de bruit, les spécialistes étant ravis de pouvoir enfin goûter aux productions de l'IRCAM (2) !

Frank Madlener, le charismatique directeur de l'IRCAM, insiste sur la diversité des expériences. « Nous travaillons sur beaucoup de champs en parallèle : transformer la voix humaine n'a pas grand-chose à voir avec la conception de sons pour une voiture électrique ou l'habillage sonore d'un jardin public. Mais le processus est le même, et il passe par l'addition des expertises, la convergence. Ici, nous ne voulons pas de ces mariages abstraits entre science et art, ça ne nous intéresse pas. Par contre, si à travers la technique, l'application, nous pouvons trouver une convergence concrète avec les envies d'un artiste, d'un créateur, alors nous fonçons. »


UN ORCHESTRE QUI PARLE

Pour être témoin d'une rencontre réussie entre l'art et la science, il suffit d'entrer dans la pièce voisine, le terrain de jeu du chercheur Arshia Cont - un « RIM » (3) d'origine iranienne -, c'est-à-dire l'homme qui a rendu tangible le rêve musical du compositeur britannique Jonathan Harvey. « En fait, il est venu nous voir en disant qu'il rêvait d'un "orchestre qui parle". Il voulait que chacun des instruments imite au plus près la voix humaine. », nous glisse Frank Madlener, avant qu'Arshia Cont, brillant spécialiste des partitions et de leur interprétation par des outils informatiques, nous fasse écouter des extraits du résultat, baptisé Speakings.

Incroyable musique que celle-là ! Gambadant dans des territoires inédits, cette extraordinaire partition a demandé des milliers d'heures de recherche et d'analyse sonore pour adapter les désirs du compositeur (par exemple : faire « lire » par les instruments un poème de T.S. Eliot) à une instrumentation concrète, jouable par un orchestre. Énigmes à résoudre : quel instrument se prêterait le mieux au son A (réponse : un orgue), au O (un mélange de contrebasse et de violoncelle), et ainsi de suite, aux consonnes, aux diphtongues ? Plus dur : comment relier tous ces sons entre eux ? Reproduire, en musique, le souffle d'une voix, ses hésitations, les mouvements d'une bouche ? Plus dur encore : comment « faire pleurer un bébé » en musique ?

Pendant qu'une enceinte généreuse nous laisse découvrir cette étonnante musique pour le moins novatrice, le patron de l'IRCAM complète l'explication : « Ici, c'est presque un bureau d'architecte : nous aidons à bâtir. Au 21e siècle, l'artiste n'est plus forcément isolé : il peut se faire aider par des gens tels que nous. Et d'une association comme celle entre Jonathan Harvey et l'équipe d'Arshia Cont, je sais que nous tirerons des choses pour l'avenir, des applications autres. Pour moi, il y a innovation quand on se trouve face à ce qui ne se fait nulle part ailleurs, mais qui va ensuite être repris partout, ou quasiment. J'aime cette idée de quelque chose d'ultra-spécifique, qui ne demande ensuite qu'à être détourné, enrichi, redistribué. »


LE WAVE FIELD SYNTHESIS

Illustration avec les fascinants projets de l'IRCAM en matière de diffusion du son dans l'espace : en inventant un système d'occupation d'une scène de spectacle par de nombreux haut-parleurs (jusqu'à 128 !) disposés en ligne, tout près les uns des autres, l'équipe de recherche d'Olivier Warusfel crée l'illusion que des sons proviennent de différents endroits alors que leur source est unique. Une sorte de sonorisation en 3D ! Imaginez : un trompettiste joue sur la gauche de la scène, mais le son de son instrument vous parvient de la droite. Ça n'est pas seulement étonnant, c'est révolutionnaire : grâce à ce procédé (le WFS, pour Wave Field Synthesis, synthèse de front d'ondes) et aux corrections acoustiques qu'il permet, on pourra bientôt promettre à chaque auditeur d'un concert la même qualité de son, où qu'il se trouve dans la salle ou le théâtre. On pourra aussi « placer » une voix sur le plateau, alors que l'acteur, en réalité, parle depuis sa loge. Les possibilités de mise en scène sont infinies !

Hugues Vinet, directeur du département recherche et développement, se réjouit de cette mise en pratique très concrète des découvertes de l'institution. « Des années de travail payent aujourd'hui ! Grâce au ministère de la Culture, qui a eu l'intuition qu'il fallait soutenir les recherches de l'IRCAM depuis sa fondation, en 1969, nos scientifiques ont pris de l'avance sur tout le monde, et nous sommes les plus pointus dans toutes les technologies qui concernent l'audio. » La preuve, même une énorme entreprise nationale comme Renault vient régulièrement frapper à la porte de l'IRCAM. Pourtant dotée de ses propres designers sonores et ingénieurs en tout genre, la firme automobile a ainsi confié à une équipe de l'IRCAM (au terme d'un appel d'offres) tout le travail de recherche autour des sons dont seront dotés ses prochains véhicules électriques. Quel son (synthétique), par exemple, préviendra le piéton de l'arrivée, dans son dos et à petite vitesse, d'un véhicule électrique par ailleurs parfaitement silencieux ? Un faux bruit de moteur à l'ancienne ? Un gazouillis d'oiseau ? Une sonorité façon synthétiseur futuriste ? Les ingénieurs de l'IRCAM pensent.

(1) Fondé en 1969 par Pierre Boulez.
(2) Plug-ins Ircam Tools, avec la société Flux (à Orléans) : Trax (transformation de la voix) et Spat (spatialisation du son).
(3) RIM, pour réalisateur en informatique musicale, le terme utilisé à l'IRCAM.

par E. Tellier (Cadence Info)

À CONSULTER

LE GRM, LE GROUPE DE RECHERCHES MUSICALES À L’INA

Le GRM, le Groupe des Recherches Musicales, est installé depuis l'éclatement de l'ORTF à l'INA. Son site didactique permet à des auditeurs comme à des musiciens d'arpenter toutes les facettes de la musique contemporaine.

DEVENIR INGÉNIEUR DU SON

Qu’il travaille à la réalisation d’un film ou qu’il s’isole dans une cabine de studio d’enregistrement, c’est toujours l’ingénieur du son qui crée le lien entre l’idée sonore, sa mise en forme et sa réalisation.


RETOUR SOMMAIRE
FB  TW  YT
CADENCEINFO.COM
le spécialiste de l'info musicale