Les outils : établissement des besoins

Outils et pratiques du sonore dans le spectacle vivant
Groupe de travail interdisciplinaire | Association Française d'Informatique Musicale

Les outils 1- établissement des besoins :


Les outils que nécessitent une telle pratique du son pour le plateau, surtout lorsqu'elle demande une certaine interprétation, une malléabilité, bref une utilisation en temps réel et un caractère d'interactivité, requièrent une attention sur deux points en particulier : la réactivité et l'ergonomie

Réactivité


Le maître mot, lorsque l'on travaille en rapport au plateau, nous a semblé être la réactivité.
Et celle-ci peut être de deux sortes : réactivité à l'écriture et réactivité à l'interprétation.

écriture

Une des caractéristiques principales de "l'écriture du plateau" est sa malléabilité (cf. article Le temps réel du temps-réel), qui implique et permet une grande liberté pour la création, mais provoque par là-même des contraintes spécifiques pour les collaborateurs, et en particulier lorsque ceux-ci manipulent le medium sonore.
En effet, alors que le comédien, en tant qu'élément humain, est relativement flexible et n'est contraint que par ses habitudes et ses réflexes de métier (qui constituent cependant un paramètre non négligeable....), l'utilisation du matériau sonore implique une temporalité propre, et dans le cas de dispositifs interactifs ou génératifs tout un travail de programmation et de conception qui présente une certaine inertie par rapport à l'élément humain.
Cet effet est particulièrement accentué par le caractère expérimental de tels dispositifs : la conception est généralement réalisée ad hoc, et demande, pour être fiabilisée un temps de développement relativement volumineux. De même, le passage entre la découverte improvisée d'un effet et sa "fixation" en élément d'une conduite réitérable et assimilable, aussi bien par le régisseur que par les interprètes du plateau, représente un temps démesuré pour les contraintes temporelles de la production du spectacle vivant.

interprétation

On peut considérer, dans le cadre du spectacle vivant, l'interprétation du matériau sonore sous deux angles :
  • par le régisseur/instrumentiste audio, pour lui permettre de gérer finement, et donc, dans une certaine mesure d'interpréter les différents éléments de la création, que ce soient des transitions, des équilibres de niveaux sonores, des espaces, ou bien des paramètres plus musicaux.
Il nous paraît en effet indispensable, si l'on veut affirmer une réelle transdisciplinarité - qui ne soit pas qu'une posture d'apparat-, que la composante sonore du spectacle soit réellement assumée comme un élément sensible, comme un matériau en soi, et pas seulement comme un décor ou une illustration...
  • par le comédien/danseur/interprète, c'est-à-dire, par le corps sur scène, relié par un dispositif d'interaction (capteurs, détection par caméra, etc… ) à l’environnement sonore et à ses processus. Ici aussi, si l'on veut que l'interaction soit réellement sensible -sans quoi on voit difficilement en quoi elle serait justifiée-, il convient de mettre en oeuvre une plasticité du dispositif, permettant des réglages précis et adaptatifs, pour que l'interprète puisse intégrer la gestion de l'interaction dans son jeu, et non pas la subir comme une contrainte extérieure.

Le point principal pour l'un comme pour l'autre de ces deux cas, est l'utilisation de procédés de mapping efficaces, flexibles, précis et dynamiques dans le temps. On entend ici par mapping les procédés de mise en correspondance des données issues de la capture du geste (ou de la voix, ou de toute autre donnée issue du monde physique) vers des paramètres de contrôle ou de génération du son.
Il existe de nombreux modes de mapping, et une abondante littérature a été produite sur ces questions, notamment sur le site de la communauté NIME.

Ergonomie


Un système de ce type doit à notre sens s'articuler autour de deux éléments complémentaires : Le moteur, qui génère les matériaux sonores, leurs transformations, modulations, spatialisations.... et l'interface qui permet de manipuler les paramètres de ces processus génératifs.
Ces deux éléments doivent être reliés par un protocole de communication permettant le passage des commandes et des informations selon un modèle formalisé et, dans une certaine mesure, standardisé ou du moins normalisé.

L'ensemble peut se schématiser comme suit (en prenant en compte l'utilisation d'éléments visuels) :

Image

Moteur Audio

On appelle moteur audio l'ensemble des processus qui vont générer, transformer et diffuser les matériaux sonores. Ce moteur peut être composé de divers logiciels ou environnements, sur une ou plusieurs machines, actionnant des lecteurs de fichiers sons, des synthétiseurs, des traitements du son (direct ou préenregistrés), des processus de spatialisation ou de multi-diffusion, etc...


Interface de création

L'interface de création consisterait alors en un dispositif de construction de relations dans le temps entre les divers éléments de ces moteurs, grâce à une surface de contrôle (accès physique et logiciel de visualisation) qui se devrait d'être le plus ergonomique possible. Il est nécessaire, à ce moment-là du travail (c'est-à-dire pendant l'élaboration du spectacle : pendant les périodes de création sur le plateau et en amont) de pouvoir avoir accès à toutes les fonctions disponibles dans le moteur, et de pouvoir fixer, puis modifier, les relations entre entrées (sources sonores, entrées physiques...etc...), processus de génération et de transformation, et sorties.
C'est à ce moment qu'intervient le mapping, qui consiste à établir une cartographie de l’évolution du matériau sonore, notamment par la mise en relation des gestes du régisseur et des interprètes avec les processus de transformation et de génération disponibles dans les moteurs audio utilisés. Cette phase est primordiale dans l'élaboration d’un environnement sonore en relation étroite avec les autres éléments du spectacle. C'est le mapping qui permettra le jeu, c’est-à-dire l’interprétation fine d’une écriture du son.

L’interface de création rend donc possible l’écriture de l’évolution temporelle du son et l’établissement des interactions, et permet ainsi de tisser des réseaux complexes de relations entre le sonore, les interprètes sur le plateau et les autres éléments du spectacle (images, lumière, scénographie, actionneurs, etc.)

Interface d'interprétation ou de conduite

L'interface de conduite ou d'interprétation doit alors, après le travail effectué sur l'interface de création, présenter le minimum d'information nécessaire au bon déroulement de la performance ou de l'exécution de l’œuvre .
Ici, l'ergonomie doit se concentrer sur la présentation des bonnes informations et des accès utiles, uniquement au moment opportun, pour ne pas noyer l'interprète ou le régisseur sous une masse de données dont la disponibilité est certes nécessaire durant la phase de création, mais dont celui-ci doit se passer durant l'exécution, pour ne se concentrer que sur les paramètres directement prégnants.
Cela implique donc que cette interface de conduite présente un système de pages différentes pour les différents moments du spectacle, dont chacune présentera les accès et les retours d'informations strictement nécessaires à l'interprétation. L'interprète/régisseur pourra alors se concentrer sur l’utilisation sensible de son medium en phase avec l'activité du plateau.
Il paraît également productif de proposer un retour d'information des paramètres de plus haut niveau que ceux employés dans les moteurs, présentant ainsi un caractère davantage descriptif qu'opérationnel, permettant alors une appréhension plus intuitive des actions générées et des paramètres contrôlés.
On retrouve ici le rapport à l'instrument dont nous parlions plus haut, qui implique la fixation d'un rapport entre geste et production sonore, pour affiner la sensibilité et l'expressivité de l'interprète et, en quelque sorte, « maîtriser la technique pour la dépasser ».

Protocole de communication

Il est indispensable, pour communiquer entre ces divers niveaux : moteur, interface de création, interface d'interprétation, d'établir un même protocole.
Ce protocole doit être suffisamment formalisé pour permettre aux divers niveaux de transmettre leurs informations tout en faisant une description, même sommaire, des fonctions auxquelles elles correspondent.
Il doit se baser sur une norme suffisamment courante pour être supportée par des logiciels différents, et ainsi permettre la communication avec autant de systèmes que possible.

Techniquement, deux protocoles, à notre connaissance, répondent à cette dernière condition :
- le MIDI, dont la popularité n'est plus à démontrer, mais qui accuse un trop grand nombre de limitations en terme de débit, de précision ou de description.
- le standard OSC, relativement répandu dans les logiciels et les interfaces audio professionnelles, efficace, rapide et permettant une description précise, mais dont l'ouverture est telle qu'elle pose le problème inverse du MIDI, à savoir que chaque implémentation génère son propre langage et ne peut donc plus communiquer qu'avec elle-même. À noter la structure hiérarchique (basée sur le système XML) permettant de décrire l’arborescence fonctionnelle des moteurs.

Page suivante : Outils 2- État-de-l'art