Nouvelles perspectives d’écoute, logiciel audiospatialisé ou bibliothèque d’empreintes sonores 3D: l’Ircam a donné un aperçu de ses recherches lors de ses portes ouvertes le 13 janvier.
Comme il est rarement coutume, il y avait foule dans les sous-sols de l’Ircam le 13 janvier pour « Studio 5, en direct », le second rendez-vous portes ouvertes organisé par l’Institut de recherche et coordination acoustique/musique sur le thème de la spatialisation sonore. Dans les couloirs étroits et les studios exigus sous la place Igor Stravinsky à Paris, une cohorte disciplinée de compositeurs en herbe, d’ingénieurs du son, de bidouilleurs informatiques musicaux et plus sommairement de curieux se pressaient pour assister à une série serrée de conférences et d’ateliers. Un déroulé qui aura malheureusement valu aux plus patients de n’avoir accès qu’à quelques-unes des sessions, faute de place disponible.
En guise d’ateliers, les makers seront sans doute également ressortis déçus : ceux-ci consistaient en des petits modules de présentation ou d’écoute sans interaction avec le public. Ils avaient toutefois le mérite d’offrir un aperçu des avancées en termes de programmes créés par l’Ircam et d’appréhender ainsi les pistes d’outils et de développements à venir en matière d’écoute et de création sonore spatialisée.
Comme souvent à l’Ircam, pas vraiment de prototypes physiques, mais surtout des propositions logicielles. L’atelier « Spatialisation et formats objets (ADMix Tools) » des ingénieurs Clément Cornuau et Thibault Carpentier permettait d’imaginer les écoutes du futur à partir de contenus sous différents formats aujourd’hui incompatibles (par exemple, stéréo et 5.1), obligeant à l’achat de supports d’écoute différents.
Grâce à la création d’un format lisible par tous les lecteurs, baptisé ADM, d’où le nom d’ADMix Tools, les différents canaux audio se conçoivent comme des objets sonores spatialement géolocalisés, un peu à la manière de la musique acousmatique. Une approche permettant d’ajouter aux flux sonores traditionnels, des pistes de métadonnées offrant des effets de spatialisation et de réverbération supplémentaires, mais aussi d’activer de nouvelles fonctionnalités interactives pour l’auditeur (augmenter/diminuer le rapport volumétrique entre bande-son et dialogues pour un film, ou modifier directement le contenu audio en condensant une émission d’une heure en une nouvelle pièce d’un quart d’heure).
Ces avancées sont permises par un nouveau logiciel de production développé par l’Ircam et Flux, Spat Revolution, permettant la création et le déplacement d’un nombre illimité d’objets sonores (et de réverbération) dans un environnement de travail audiospatialisé. Cet outil de mixage et de post-production de contenus audio 3D temps réel est plutôt réservé aux pros, qu’ils veuillent spatialiser des moteurs de VR, mixer au cinéma ou gérer des installations sonores. Son prix en atteste (1.490€, moitié prix pour les étudiants et universités), même si un freeware est téléchargeable pour un mois d’essai. Il vous faudra un système d’écoute avec plusieurs haut-parleurs pour une bonne restitution !
Spat Revolution, démo:
Ceux qui n’ont pas cette chance pourront se tourner vers la très intéressante bibliothèque 3D conçue par le réalisateur en informatique musicale Augustin Muller et le compositeur Pedro Garcia Velasquez à partir de différentes mesures sonores réalisées in situ. Nommée « Théâtre acoustique », cette base de données particulière et bientôt accessible en ligne via le site de l’Ircam référence des lieux spécifiques (orée de forêt, hall d’entrée, nef d’église ou château d’eau) en format stéréo, binaural et ambisonics. Et là, vous n’aurez pas besoin de tester la spatialité en mode surplace dans un couloir pour accéder à un exercice de spatialisation immersive !
En savoir plus sur l’Ircam