Groupe de travail AFIM : Outils et pratiques du sonore dans le spectacle vivant
Outils et pratiques du sonore dans le spectacle vivant


Groupe de travail interdisciplinaire | Association Française d'Informatique Musicale



Objectifs :


L'objectif du groupe de travail est double :

  • Mettre en oeuvre un questionnement des pratiques, des outils et des métiers du sonore dans le contexte du spectacle vivant (theâtre, danse, concert étendu ou multimédia) pour en dégager les particularités.

  • Établir un état-de-l'art des environnements logiciels existants pour la composition et l'interprétation du sonore dans le cadre du spectacle vivant. Éventuellement, dégager les prospectives de développement futur de tels environnements.

Groupe :


Les participants réunis pour ce groupe de travail ont pour point commun le fait d'être des praticiens du son et du plateau, dont les besoins sont générés par la pratique :

  • Régisseurs/réalisateurs son pour le théâtre :
Olivier Pfeiffer et Guy Levesque de la Compagnie Incidents Mémorables.
François Weber, de la Compagnie musicale La Truc, formateur son à l'ISTS et à l'ENSATT
  • Compositeurs travaillant en lien avec le spectacle vivant:
Tom Mays, Mathieu Chamagne, Nicolas Carrière, Pascal Baltazar

Tous ont développé des environnements audio, pour leur propre pratique, et pour une utilisation par des tiers....

À eux se joignent des responsables de structures issus de différents champs en rapport avec le son, l'informatique à visée artistique ou le spectacle vivant :
  • Georges Gagneré : directeur artistique de la Cie Incidents Mémorables, metteur en scène, concepteur de dispositifs interactifs multimedia, initiateur du groupe de travail
  • Francis Faber : directeur de la Cie La Grande Fabrique, compositeur, travaillant en lien avec Tom Mays
  • Thierry Besche : directeur du GMEA (Centre de création musicale d'Albi-Tarn), travaillant en lien avec Mathieu Chamagne, Nicolas Carrière et Pascal Baltazar
  • Jean-louis Larcebeau : responsable de l'enseignement son à l'ISTS, Avignon
  • Christian Jacquemin : chercheur en informatique au LIMSI-CNRS et enseignant à l'université Paris 11 Orsay, partenaire scientifique de la Cie Incidents Mémorables
  • Anne Sédès : compositrice, enseignante chercheure en musique et outils informatiques, CICM, Maison des Sciences de l'Homme, Université Paris 8
  • Jean-michel Couturier : docteur-ingénieur et musicien, spécialiste en conception de systèmes interactifs et en lutherie numérique, responsable de Blue Yeti.

Correspondant AFIM : Thierry Coduys, La Kitchen, Paris

Les pratiques et métiers :


Les métiers du sonore dans le spectacle vivant:


La confrontation de régisseurs/réalisateurs sonores et de compositeurs, les uns comme les autres travaillant régulièrement dans le cadre du spectacle vivant avec des outils audionumériques, fait émerger la question des métiers et des cultures du sonore.

En effet, ces deux "corps de métier", issus de cultures et de formations différentes, voire parfois opposées, retrouvent, dans le rapport au plateau, un certain nombre de similitudes entre leurs pratiques, de contraintes et de questionnements partagés.

Ainsi, la distinction entre compositeur et réalisateur sonore se trouve, dans la pratique, pondérée par une même attention à respecter et à s'adapter au "temps du plateau", qui contraint et conditionne le temps musical propre. De même, l'usage non-musical du sonore (textuel, contextuel, anecdotique...), fréquente dans ce contexte, rapproche la pratique du compositeur de celle du réalisateur sonore. Inversement, bien souvent, le metteur-en-scène demande au réalisateur sonore des propositions qui s'approchent du domaine musical, et outrepassent par là ses compétences supposées.
L'usage de l'espace sonore dénote lui aussi d'un certain nombre de différences culturelles entre compositeurs et réalisateurs sonores, majoritairement articulées autour de la distinction multi-diffusion/spatialisation : Construction d'un espace sonore (réaliste ou imaginaire) par le placement des sources / espace intrinsèque à l'objet ou processus sonore.

On pourrait aussi relever une différence de pratique entre le régisseur et l'interprète : l'un s'assurant que les différents moments s'enchaînent correctement et que les équilibres sonores sont respectés, l'autre devant censément jouer un rôle expressif, d'interprétation.
Or cette distinction est bien entendu caricaturale, puisque dans bien des cas le régisseur fera appel à sa sensibilité pour appuyer tel ou tel effet, pour retenir ou précipiter une transition. De même, l'inteprète aura bien souvent la tâche d'enchaîner les séquences, de s'assurer du bon fonctionnement du système, d'ajuster les niveaux sonores - toutes préoccupations qu'une classification stricte rangerait plutôt du côté de la régie.

On constate donc finalement que ces différences et oppositions culturelles, dans la pratique et en fonction des réquisits esthétiques, tendent vers une hybridation, un métissage, et que la distinction entre ces corps de métiers historiques se recoupe dans une zone d'indétermination : le réalisateur sonore se retrouve bien souvent en posture de composer, le régisseur doit interpréter transitions et gestes. De même le compositeur/interprète, depuis l'émergence de la musique électroacoustique, ne peut s'affranchir de la technique et des outils, qui sont devenus le matériau même de son travail créatif.
Tout au plus peut-on considérer l'opposition régisseur/réalisateur sonore et compositeur/interprète comme une distinction théorique, pour les besoins de l'analyse, alors que la pratique requiert de chacun en posture d'écrire le sonore pour le plateau d'emprunter à l'une et à l'autre de ces catégories établies leurs outils, techniques, points de vues et pratiques.

Ce constat se confirme par l'examen des outils développés par les régisseurs et compositeurs de notre groupe de travail: même s'ils dénotent de façon évidente de ces différences culturelles dans leurs choix de conception, ces environnements montrent un nombre notable de points communs et indiquent une convergence de préoccupations qui semblent autoriser la perspective d'un développement commun.

On pourrait conclure sur ce point en disant que, s'il est admis que le régisseur/réalisateur sonore pour le théâtre se veut au service exclusif du plateau alors que le compositeur défend sa temporalité musicale propre, l'un comme l'autre sont au service du propos singulier du spectacle et de ses parti-pris esthétiques, qui, en fin de compte, se devraient d'être l'horizon principal de leur activité.

Il nous semble également nécessaire de bien prendre en compte la relative jeunesse de ces pratiques, et leur caractère majoritairement expérimental, qui nous interdit toute conclusion définitive sur un domaine en perpétuelle évolution...

Formation et transmission : vers de nouveaux métiers ?


Comme semble l'indiquer l'ensemble des réflexions précédentes, de nouveaux métiers sont en train de naître dans le champ du sonore pour le spectacle vivant, à la croisée des pratiques musicales et des techniques du son, avec pour horizon le sonore dans son ensemble comme matériau créatif et pour outils les nouveaux environnements audionumériques.

Ce changement dans l'organisation du travail est bien entendu généré par la mutation des outils et le changement du régime analogique vers celui du numérique, mais pas seulement : les mutations esthétiques et le mélange des genres que subissent les arts de la scène impliquent une nécessaire redistribution des rôles créatifs.

Il est cependant évident que la démocratisation des moyens de production, de composition et d'interprétation par la banalisation de l'ordinateur a permis à tout un chacun de se rendre autonome, alors qu'il y a quelques années seulement, une création sonore était difficile, voire impossible à assumer seul, sans le soutien technique d'une structure ou d'un studio...
Comme le disait le compositeur Fausto Romitelli : "Je pense qu'il faut bien voir que, suite à la distribution massive des systèmes informatiques, la possibilité a été donnée à tout le monde de travailler sur le son ; cela a changé beaucoup de choses. L'ordinateur est désormais sorti des instituts de recherche, ce qui rend accessible à beaucoup de gens une approche directe du son. (...) Cela signifie que des gens sans savoir, mais aussi sans dogme, donc libres, peuvent travailler au coeur du sonore, et apporter ainsi une approche compositionnelle très différente des approches traditionnelles. On peut dire que le travail à l'ordinateur est devenu un travail d'écriture."
Le maître mot est bien "écriture". Car c'est bien d'écriture du sonore dont il s'agit au théâtre, pour la danse ou au concert. Évidemment, chaque champ impliquera un mode particulier d'écriture et génèrera une temporalité propre ; de même si "l'écrivain du sonore" est issu d'une formation de compositeur ou de technicien.
Mais, avant tout, et c'est ce que semble vouloir dire Romitelli, ce changement de contexte implique surtout un changement de pratique, et "l'écriture du sonore" n'est plus alors réductible à une continuation de l'écriture musicale "traditionnelle". L'écriture se fait avec, dans et sur le son lui-même.

Cette préoccupation de l'écriture du sonore, lorsqu'elle en vient à interroger les problématiques de l'interprétation, donc de l'exécution en direct, soulève un certain nombre de problèmes nouveaux. En effet, contrairement à l'écriture musicale "traditionnelle", pour laquelle existe tout un instrumentarium éprouvé, bénéficiant de siècles de pratique et de réflexion, de méthodes d'enseignement et d'écoles, les nouvelles écritures du sonore cherchent encore leurs instruments.
On pourrait même dire que l'invention de ses instruments est consusbtantielle de l'émergence de ces nouvelles écritures. Ainsi, c'est grâce au détournement des appareils médiatiques tels que le tourne-disque et le magnétophone à bandes que Pierre Schaeffer et Pierre Henry inventèrent la musique concrète.
Mais cette invention permanente d'instruments n'est pas sans provoquer certains problèmes, dont le fait qu'un instrument dont la forme et la structure change constamment ne peut pas décemment être qualifié d'instrument, si l'on entend qu'avec l'instrument doit aller une pratique et une maîtrise, donc une habitude corporelle, un ensemble de réflexes subconscients d'utilisation permettant l'expressivité générés par une permanence de la correspondance entre le geste et le résultat sonore. Cette question est traitée en profondeur et avec un regard critique acéré par Christopher Dobrian et Daniel Koppelman dans un papier présenté au NIME'06.

De plus, la possibilité ouverte par l'informatique personnelle de générer aussi bien du son que de l'image avec des pratiques somme toute assez semblables, et parfois avec les mêmes outils (comme c'est le cas avec des environnements comme max, pure-data ou processing) a encouragé le décloisonnement des pratiques audiovisuelles et donc des métiers : un spécialiste du son étant fréquemment amené à produire la partie visuelle d'un spectacle, par exemple.
C'est ainsi que l'on voit émerger des appellations telles que "régisseur numérique" ou "artiste multimedia", qui ne se basent plus sur un support en particulier, mais prennent appui -bien souvent par défaut- sur l'outil employé pour nommer leur pratique et, partant, leur catégorie professionnelle.

Cette émergence de nouveaux métiers pose évidemment avec force et urgence la question de la formation et de la transmission des savoirs.
Car, si ces métiers en émergence peinent à se définir, quelles doivent être les méthodes pour les enseigner, par quels formateurs et dans quels organismes, avec quels outils ?

Ces questions restent bien entendu ouvertes et trouveront leurs réponses par la pratique et par les choix politiques que feront institutions et organismes de formations.
Il semble cependant nécessaire qu'une composante d'expérimentation soit affirmée et défendue comme consubstantielle à ce type d'enseignement, les paradigmes et technologies évoluant trop rapidement pour pouvoir figer ces pratiques dans un précepte technique quelconque.

Les Outils : État de l'art et prospective de développement.


Établissement des besoins


Les outils que nécessitent une telle pratique du son pour le plateau, surtout lorsqu'elle demande une certaine interprétation, une malléabilité, bref une utilisation en temps-réel et un caractère d'interactivité, requièrent une attention sur deux points en particulier : la réactivité et l'ergonomie

Réactivité


Le maître mot, lorsque l'on travaille en rapport au plateau, nous a semblé être la réactivité.
Et celle-ci peut être de deux sortes : réactivité à l'écriture et réactivité à l'interprétation.

écriture

Une des caractéristiques principales de "l'écriture du plateau" est sa malléabilité, qui implique et permet une grande liberté pour la création, mais provoque par là-même des contraintes spécifiques pour les collaborateurs, et en particulier lorsque ceux-ci manipulent le medium sonore.
En effet, alors que le comédien, en tant qu'élément humain, est relativement flexible et n'est contraint que par ses habitudes et ses réflexes de métier (qui constituent cependant un paramètre non négligeable....), l'utilisation du matériau sonore implique une temporalité propre, et dans le cas de dispositifs interactifs ou génératifs tout un travail de programmation et de conception qui présente une certaine inertie par rapport à l'élément humain.
Cet effet est particulièrement accentué par le caractère expérimental de tels dispositifs : la conception est généralement réalisée ad hoc, et demande, pour être fiabilisée un temps de développement relativement volumineux. De même, le passage entre la découverte improvisée d'un effet et sa "fixation" en élément d'une conduite répétable et assimilable, aussi bien par le régisseur que par les interprètes du plateau, représente un temps démesuré pour les contraintes temporelles de la production du spectacle vivant.

interprétation

L'interprétation serait alors de deux ordres :
  • par le régisseur/instrumentiste audio, pour lui permettre de gérer finement, et donc, dans une certaine mesure d'interpréter les différents éléments de la création, que ce soient des transitions, des équilibres de niveaux sonores, des espaces, ou bien des paramètres plus musicaux.
Il nous paraît en effet indispensable, si l'on veut affirmer une réelle transdisciplinarité - qui ne soit pas qu'une posture d'apparat-, que la composante sonore du spectacle soit réellement assumée comme un élément sensible, comme un matériau en soi, et pas seulement un décor ou une illustration...
  • par le comédien/danseur/interprète, c'est-à-dire, par le corps sur scène, relié par un quelconque dispositif d'interaction (capteurs, détection par caméra...etc.) au dispositif sonore et à ses processus. Ici aussi, si l'on veut que l'interaction soit réellement sensible -sans quoi on voit difficilement en quoi elle serait justifiée-, il convient de mettre en oeuvre toute une plasticité du dispositif, permettant des réglages précis et adaptatifs, pour que l'interprète puisse intégrer cette gestion de l'interaction dans son jeu, au lieu de se faire parasiter par elle.

Le point principal pour l'un comme pour l'autre de ces deux cas, est l'utilisation de procédés de mapping efficaces, flexibles, précis et dynamiques dans le temps. On entend ici par mapping les procédés de mise en relation des données issues de la capture du geste (ou de la voix, ou de toute autre donnée issue du monde physique) vers des paramètres de contrôle ou de génération du son.
Il existe de nombreux modes de mapping, et une abondante littérature a été produite sur ces questions, notamment sur le site de la communauté NIME.

Ergonomie


Un système de ce type doit à notre sens s'articuler autour de deux éléments complémentaires : Le moteur, qui génère les matériaux sonores, leurs transformations, modulations, spatialisations.... et l'interface qui permet de manipuler les paramètres de ces processus génératifs.
Ces deux éléments doivent être reliés par un protocole de communication permettant le passage des commandes et des informations selon un modèle formalisé et, dans une certaine mesure, standardisé.

L'ensemble peut se schématiser comme suit (en prenant en compte l'utilisation d'éléments visuels) :

Image

Moteur Audio

On appelle moteur audio l'ensemble des processus qui vont générer, transformer et diffuser les matériaux sonores. Ce moteur peut être composé de divers logiciels ou environnements, sur une ou plusieurs machines, actionnant des lecteurs de fichiers sons, des synthétiseurs, des traitements du son (direct ou préenregistrés), des processus de spatialisation ou de multi-diffusion.


Interface de création

L'interface de création serait alors un dispositif de construction de relations dans le temps entre les divers éléments de ces moteurs, grâce à une surface de contrôle (accès physique et logiciel de visualisation) qui se devrait d'être le plus ergonomique possible. Il est nécessaire, à ce moment-là du travail (c'est-à-dire pendant l'élaboration du spectacle : pendant les périodes de création sur le plateau et en amont) de pouvoir avoir accès à toutes les fonctions disponibles dans le moteur, et de pouvoir fixer, puis modifier, les relations entre entrées (sources sonores, entrées physiques...etc...), processus de génération et de transformation, et sorties.
C'est à ce moment qu'intervient le "mapping", qui consiste à établir une cartographie des relations entre geste et résultat sonore, entre action et production. Cette partie est primordiale dans l'élaboration sensible de l'interaction entre le son et le reste du spectacle, ainsi que de la relation au matériau sonore lui-même. C'est le mapping qui permettra le jeu, l'interprétation, en somme toute la finesse de l'écriture et de son interprétation.
En bref, c'est grâce à l'interface de création que va pouvoir se faire toute l'écriture du temps et de l'interaction et que va se tisser tout le réseau de relations entre le sonore, le plateau et, au cas échéant, les autres éléments (images, lumière, actionneurs...).

Interface d'interprétation ou de conduite

L'interface de conduite ou d'interprétation doit alors, après le travail effectué sur l'interface de création, présenter le minimum d'information nécessaire au bon déroulement de la performance ou de l'exécution de l'oeuvre.
Ici, l'ergonomie doit se concentrer sur la présentation des bonnes informations et des accès utiles, uniquement au moment opportun, pour ne pas noyer l'interprète ou le régisseur sous une masse de données dont la disponibilité est certes nécessaire durant la phase de création, mais dont celui-ci doit se passer durant l'exécution, pour se concentrer sur les paramètres directement pregnants.
Cela implique donc que cette interface de conduite présente un système de "pages" différentes pour les différents moments du spectacle, dont chacune présentera les accès et les retours d'informations strictement nécessaire à l'interprétation, permettant ainsi à l'interprète/régisseur de se concentrer sur sa sensibilité, son interprétation et sur la finesse du rapport de son medium à l'activité du plateau.
Il paraît également productif de proposer en retour d'information des paramètres de plus haut niveau que ceux employés dans les moteurs, présentant ainsi un caractère davantage descriptif qu'opérationnel, permettant ainsi une appréhension plus intuitive des actions générées et des paramètres contrôlées, un saut du niveau technique au niveau artistique.
On retrouve ici le rapport à l'instrument dont nous parlions plus haut, qui implique la fixation d'un rapport entre geste et production sonore, pour affiner la sensiblité et l'expressivité de l'interprète et, en quelque sorte, "maîtriser la technique pour la dépasser".

Protocole de communication

Il est indispensable, pour communiquer entre ces divers niveaux : moteur, interface de création, interface d'interprétation, d'établir un même protocole.
Ce protocole doît être suffisamment formalisé pour permettre aux divers niveaux de transmettre leurs informations tout en faisant une description, même sommaire, des fonctions auxquels elles correspondent.
Il doît se baser sur une norme suffisamment courante pour être supportée par des logiciels différents, et ainsi permettre la communication avec autant de systèmes que possible.

Techniquement, deux protocoles, à notre connaissance, répondent à cette dernière condition :
- le MIDI, dont la popularité n'est plus à démontrer, mais dont l'âge accuse un trop grand nombre de limitations en terme de débit, de précision ou de description.
- le standard OSC, relativement répandu dans les logiciels et les interfaces audio professionnelles, efficace, rapide et permettant une description précise, mais dont l'ouverture est telle qu'elle pose le problème inverse du MIDI, à savoir que chaque implémentation génère son propre langage et ne peut donc plus communiquer qu'avec elle-même. À noter la structure hiérarchique (basée sur le système html) facilitant la description des architectures audio.

Outils existants


Il appert des réflexions précédentes qu'une telle pratique requiert des outils spécifiques, qui, semble-t'il, n'existent pas tout faits pour l'instant.
Nous avons donc établi un tour d'horizon des logiciels et environnements audio utilisés dans le spectacle vivant :
Ceux-cis se divisent en deux grands groupes : les logiciels commerciaux, fixés, et les environnements évolutifs.

Logiciels

- Dans le premier groupe, on pourrait citer comme le plus efficace et plus répandu le logiciel Live d'Ableton, dont la popularité croissante montre bien la pertinence dans le traitement en direct du sonore. Il semble cependant que, si ce logiciel est idéal pour le déclenchement de séquences sonores et dans une certaine mesure pour le traitement en direct, il montre assez rapidement ses limites dès lors que l'on cherche à mettre en oeuvre des dispositifs d'interaction un peu pointus, par son absence de système de mapping et par son entrée limitée au protocole MIDI - certes historiquement incontournable, mais aujourd'hui un peu limité vis-à-vis des développements technologiques dans le domaine des interfaces et de la captation.
À noter qu'à l'origine, le logiciel Live a été prototypé dans Max/MSP, puis ensuite refondu en C pour des raisons de performances.
- Il existe également plusieurs logiciels dédiés à la conduite sonore pour le spectacle vivant et destinés à un public de régisseurs : du plus simple au plus complexe : cricketsound, SeqCon, CueStation, Séquenceur d'Histoire de l'Odéon.
Tous ces logiciels ont des qualités certaines, présentent une très bonne fiabilité et sont particulièrement adaptés pour une régie "classique" de théâtre, consistant en un enchaînement de séquences déclenchées par des cues successifs correspondant à des événements du plateau.
Ils montrent cependant leurs limites très rapidement lorsque l'on veut employer des dispositifs interactifs ou génératifs, que ce soient des processus ad hoc de génération sonore algorithmique, ou bien des interactions avec le plateau par caméra ou capteurs, ou encore des modes d'interfaçage alternatifs à la console MIDI.
- Jade serait peut-être le logiciel le plus adapté aux besoins définis plus haut. En effet, ce logiciel, développé sous Max/MSP, fonctionne avec une librairie de modules standard, à laquelle peuvent s'ajouter des modules développés par les utilisateurs. Il permet un accès configurable à tous les paramètres et des mappings assez précis. Cependant, la gestion des événements (cues) est un peu lourde à programmer, puisque basée entièrement sur un langage de script. De plus, il n'est plus maintenu.
Par contre, son architecture et ses éléments de base ont été refondus et "open-sourcés", donnant ainsi naissance au projet Jamoma, dont nous reparlerons plus bas.

Environnements

- Environnements modulaires "bas-niveau" : Max/MSP/Jitter et Pure Data. À notre connaissance, la plupart des productions d'un niveau "respectable" impliquant des processus génératifs et interactifs ont été développés dans ces environnements, dont la caractéristique principale est de permettre à-peu-près tout type d'interaction ou de relation entre un medium et un autre. La contrepartie de cette ouverture est le temps nécessaire au développement du moindre processus, et la spécificité des dispositifs, dont peu d'éléments peuvent finalement être réemployés.
- Un certain nombre d'environnements modulaires de plus haut niveau, donc plus simples et plus rapides à mettre en oeuvre, sont disponibles sur le marché : Plogue Bidule, AudioMulch, Usine, Processing.
Tous ont leurs particularités, points faibles et points forts, mais sont généralement orientés vers la production musicale expérimentale ou électronique, et montrent rapidement leurs limites lorsqu'il s'agit d'écrire l'interaction dans le temps et avec le plateau, ou de construire des conduites répétables et fiables.
- Enfin, les environnements développés dans Max ou Pure-data, dont on trouve pléthore de réalisations sur le web : UBC Toolbox, Theater Max, Quintet.net, MaWe, MPTools, lloop.
- Sans oublier ceux développés par les membres du groupe de travail Peralvino, Z, environnements de Tom Mays et de Mathieu Chamagne
Ici, de même, chacune de ces réalisations a ses spécificités, ses qualités et ses défauts, mais aucun d'entre elles ne peut prétendre, en l'état, à devenir un outil fiable et performant pour la création sonore pour le spectacle vivant. On constate en effet, pour quasiment tous ces environnements, un manque de généricité, une absence de protocole de communication avec l'extérieur du système et/ou un mode d'utilisation assez cryptique et éminemment personnel, puisque généralement lié à la pratique singulière du développeur.

Convergence et prospective de développement


Protocole d'échange


Nous avons donc déduit de cet ensemble de réflexions qu'il semblait plus productif de s'orienter vers l'établissement d'un protocole plutôt que d'un produit fini : Le développement, s'il a lieu, devrait alors s'orienter vers un environnement ouvert, évolutif, tout en proposant des éléments d'assez haut niveau pour ne pas nécessiter de l'utilisateur des compétences de programmation, tout au plus quelques notions.
Ainsi peut-on éviter le risque majeur du produit fini : devenir obsolète au moment même où il est produit, puisque ne pouvant suivre l'évolution des pratiques, qui se produit -semble-t'il- à une vitesse relativement vertigineuse.

Nous nous sommes donc orientés vers des communautés de travail ayant des objectifs similaires :
- Jamoma, dont l'objectif est de "produire une structure pour l'échange, la réutilisation et la transmission de patches Max". L'une des particularités intéressantes de ce système est son usage du protocole OSC.
Nous avons donc organisé une rencontre avec Trond Lossius, un des fondateurs de cette initiative, qui nous en a expliqué le fonctionnement et l'esprit, qui semble converger sur de nombreux points avec notre démarche.
- Nous avons également participé à une réunion de travail du groupe Integra, dont certains des objectifs sont similaires aux nôtres, à savoir la réflexion sur le développement d'un environnement audio basé sur le couple interface/moteur, mais dans un champ différent : la pérennisation et la création d'oeuvres musicales contemporaines "mixtes" (instrumentales et électroniques).
À noter que Integra et Jamoma réfléchissent ensemble à l'élaboration d'un espace de nommage générique, visant à la description des processus audio et des modes d'interaction, et basé sur le protocole OSC
- Nous avons enfin assisté à la réunion des développeurs OSC qui a eu lieu à l'IRCAM, à la fin du NIME'06. Cette réunion évoquait notamment l'élaboration d'un OSC 2.0 (sur le modèle du web 2.0), dont l'une des particularités intéressantes consisterait à ce que les systèmes soient dotés de dispositifs permettant de s'identifier lorsqu'ils apparaissent sur un réseau, et de signaler leur arborescence et, partant, les langages qu'ils comprennent et produisent : leurs modes de description des données et leurs structures d'adressage. Cette évolution permettrait notamment de régler le principal problème actuel du protocole OSC, à savoir sa trop grande ouverture...

Niveaux d'utilisateurs


Il nous a semblé pertinent, dans la perspective d'un développement futur d'un tel système, de dégager trois niveaux d'utilisateurs :
- Utilisateur final : Régisseur, compositeur n'ayant pas ou peu de connaissance de la programmation, et dont l'intérêt se situe dans la mise en oeuvre du sonore pour la composition et la régie. Cet utilisateur est cependant censé avoir consacré un minimum de temps à se former à l'utilisation de l'environnement, qui doit rester suffisament ergonomique et clair pour en permettre une prise en main en quelques heures, même si l'exploitation de toutes les possibilités implique forcément d'avantage d'exploration.
- Développeur de modules : Compositeur ou régisseur ayant une certaine expérience de la programmation, et souhaitant intervenir sur les processus et algorithmes mis en jeu. Il faut alors fournir à cet utilisateur "intermédiaire" un "Software development kit" simple d'utilisation et clair, lui permettant dans un temps relativement court d'intégrer ses algorithmes comme de nouveaux éléments de la librairie de modules, sans forcément avoir à connaître ou comprendre le fonctionnement interne de l'environnement.
- Développeur d'environnement ou de moteur : Membre d'une équipe de développement d'environnement, il est censé connaître la majeure partie des tenants et aboutissants de la programmation de l'environnement et en assurer la maintenance et l'évolution. Il est en dialogue avec les développeurs de modules et leur fournit une "feuille de route" pour l'intégration de leurs modules.

Conclusion et travail futur


Ce travail n'est bien entendu qu'un défrichage des questions multiples que pose la création sonore pour le spectacle vivant. Nous continuerons bien entendu de creuser ces questions durant la saison 2007.

Il est prévu d'organiser une campagne de recueil des besoins et envies des praticiens du sonore pour le spectacle vivant (régisseurs, créateurs sonores), en trois étapes :
  • Table ronde organisée avec un petit panel de professionels invités pour présenter leurs démarches et leurs besoins. Cette rencontre aura lieu en Octobre à l'ENSATT à Lyon.
  • À partir d'une compilation et d'une analyse des besoins formulés par ce panel, rédaction d'un formulaire diffusé aussi largement que possible au sein de la profession.
  • Analyse des résultats du formulaire et établissement d'un cahier des charges pour le développement à long terme d'un outil ou d'un ensemble d'outils pour la création et l'interprétation sonores pour le spectacle vivant.

Nous nous attacherons alors à la formulation d'un projet à long terme de développement, avec un ensemble de partenaires choisis parmi des compagnies, centres de recherche musicale ou multimedia, organismes de formation, laboratoires universitaires, entreprises...
Nous entreprendons ensuite la structuration de ce groupe de travail et mettrons en route une recherche de financement pour le projet de développement.

Éventuellement, nous réfléchirons au prolongement de la recherche et du développement futur sur les domaines de l'image et de la lumière, dans l'objectif d'une gestion conjointe de ces différents media. Ce qui ne sera pas sans nous amener à une certaine convergence d'intérêts et de questionnement avec le domaine de l'installation, auquel s'apparentent nombre de scénographies interactives pour le spectacle vivant.

Le groupe de travail se clôturera sur la présentation d'un compte-rendu récapitulatif aux Journées d'Informatique Musicale (JIM) 2007, et par la publication d'un papier sur le site de l'AFIM et dans les actes des JIM.