DAP-rapport2.3.1 - Wikidolist

Dernière modification : 2008/03/31 16:26

retour plan du rapport → brouillon rapport dap



Introduction

Parallèlement à la mise en place et le développement du projet des microphones ouverts le laboratoire Locus Sonus démarre un axe d'expérimentation complémentaire basé sur la capture et l'amplification sonore dans un espace relativement restreint, un relevé audio, pour ainsi dire, d'un paramètre limité autour du point d'amplification, position de l'auditeur. L'intention de départ était de rendre le flux audio mobile, en contrepoint au projet "locustream" dans lequel la position de captation est fixée. Inversant le principe de base du micro ouvert par le fait de lier le point de capture à la déambulation d'une personne (performeur), le flux sonore devient un sélection subjective et donc un représentation personnelle de cette espace offert par la personne qui manipule le microphone. L’hypothèse étant qu’en rendant mobile nos espaces personnels, (via l'utilisation de téléphones mobiles, ordinateurs portables, ipods etc.) ce même principe pourrait devenir la base d'un pratique artistique. Prenant comme référence des projets artistiques et musicaux basés sur le "live sampling" (Kaffe Matthews) mais également des performances qui s’appuient sur la narration sonore improvisée en temps réel (Laurie Anderson, Janet Cardiff dans ses "sound walks") Locus Sonus commence ses expérimentations en utilisant des micros et casques sans fils pour se concentrer dans un premier temps sur l'espace imposé par les limites de transmission comme territoire à travailler. Cette partie de la recherche ouvre naturellement sur des actions artistiques de type performance ou concert, importantes pour un équilibre des formes d’expérimentations dont l'autre versant amène (voir doc 1.....) plutôt vers des dispositifs d'installation, de visite ou d’écoute.

Pour les premières expériences qui ont eu lieu a l’ ESAA en mars 2006, nous nous sommes servis d’un micro émetteur en le déplaçant d'un endroit à un autre à l'intérieur de l'enceinte de l'école et en le laissant à chaque fois dans une position fixe . Nous mixions les sons en provenance du microphone distant avec ceux produits (avec objets et des instruments) dans l’espace de diffusion et à la fois avec les sons des streams (Locustream). Nous remarquons que, comme avec les streams lointains (micros ouverts), le contenu audio avait tendance à être assez pauvre ou en tout cas imprévisible quant à la fréquence et à la nature des sons. Il était donc difficile de savoir si nous allions obtenir un matériel sonore exploitable pour la performance au moment voulu.

Expérience de narration:

(image)

    A l’occasion d’une des sessions de travail à l’ESAA nous avons tenté un protocole qui consistait à tracer le territoire défini par les limites de transmission du microphone, décrivant oralement la scène visuelle. La performeuse (Esther Salmona) sortait de l'espace de l’espace de diffusion et elle déambulait dans les espaces alentours. Hors de vue, sa participation dans l'improvisation en cours se manifestait par une présence vocale amplifiée qui décrivait l'environnement qu’elle parcourait. Ce principe fut aussi utilisé à l’occasion d'un présentation publique des travaux de Locus Sonus en cours (work in progress) à la Villa Arson en Avril 2006. Malgré le grand intérêt de ce principe nous l'avions, dans un premier temps, mis de coté pour laisser place à d'autres expérimentations* que nous allons décrire ci-dessous. $

(Note de bas de page) *Esther Salmona a continué cette piste plus tard dans le laboratoire avec son projet de projet de lecture de stream.

Echantillonnage

Durant la même session Lydwine Van der Hulst (musicienne) avait utilisé le microphone mobile pour "sonder" un environnement déterminé (par la zone de transmission) en cherchant des phénomènes acoustiques et en jouant avec des objets pour produire des sons pendant que d'autres membres du groupe organisaient (orchestraient) ces sons avec des techniques d'audio numérique (pure data). C'est principalement cet axe d'expérimentation qui à été développé par la suite.

Parabole Rotative

(image)

Locus Sonus utilise des paraboles pour augmenter la directionnalité et la sensibilité des microphones électret en les adaptant au projet des microphones ouverts "Locustream". En nous intéressant aux possibilités spatiales et aux pouvoirs de focalisation des paraboles nous avons développé une machine-prototype combinant une parabole rotative avec une spatialisation numérique sur huit haut-parleurs. Les auditeurs sont invités à se placer au centre du cercle de haut-parleurs pour entendre un panoramique parfait sur 360° synchronisé avec les mouvements mécaniques de la parabole. Le cercle de haut-parleurs est positionné dans l'espace de façon à permettre à l'auditeur de percevoir le microphone, situé en extérieur, à travers la fenêtre. Le microphone tourne sur un socle à un trentaine de mètres de là. En dehors de l'intérêt provoqué par le phénomène de perception : le mouvement distant du microphone permetant l'expérience de l'audition de sa captation depuis un espace éloigné. Il présente aussi un intérêt au niveau du phénomène acoustique (balayage/filtrage) lié au mouvement (rotation de la parabole). Cette expérience de spatialisation "artificielle" combinée avec la prise de son "naturelle" a ouvert un chemin vers l'exploration d'espaces "hybrides" et vers le développement de formes qui apparaissent par la suite où la distinction entre captation et création d'espaces sonores s’efface ( voir projet concert sympathique mondiale - LS / SL etc.)

Wimicam 1 - Performance en duplex
Une des conséquences de ces différentes expérimentations a été la construction d'un premier microphone parabolique et d’une camera sans fil (Wimicam) en juillet 2006.

(Image)

Une webcam wifi (un micro-serveur de stream vidéo) à été ajoutée à la parabole, le champs visuel de la webcam couvre, à quelque chose près, le champ du microphone directionnel, l'image de la camera est accessible via le web. Cette première version de la Wimicam à été fabriquée en deux exemplaires afin d'expérimenter des performances et des concerts en duplex basés sur la rencontre de deux espaces distants. L'interprétation de chaque espace est assurée par une équipe de deux personnes, la première personne manipule la Wimicam et la deuxième traite et transforme le matériel audio pour l'envoyer à distance en stream vers l'autre équipe. Un retour est organisé pour que les membres des deux équipes (par casque sans fil pour les preneurs de son) non seulement entendent la composition qui se déroule localement mais également celle de l'espace distant. Ce dispositif permet une véritable mise en correspondance entre deux espaces acoustiques et de musiciens distants les uns des autres.

(diagram)

« Je m'empare de la « Wimicam » pour découvrir l'environnement sonore qui m'entoure, et en révéler le pouvoir musical.
Des gestes se précisent (le mouvement rapide de la parabole dans l'air, le déplacement plus ou moins rapide dans
l'espace ) et font naître des petites narrations. »

Une performance avec cette interface de jeu est présentée en duplex lors du « Road show » à New York.
Une partie de l’équipe joue depuis le Roebling Bridge (Pensylvanie), l'autre dans une galerie d'art à "Triangle
Below Canal Street" (NYC).

« Je ballade la « Wimicam »dans le quartier, je « pioche », saisis les ambiances et Peter Sinclair les retraite en direct,
dans la galerie. La rue devient une véritable source d'orchestration sonore, en temps réel. Je mêle spontanément des voix, des bruits de pas, des sons de voitures, d'oiseaux, d'avion; je saisis l'énergie
bouillonnante du quartier pour la retransmettre dans les différents lieux connectés à mon flux.
Celui-ci est teinté par le traitement de Peter Sinclair et se superpose au stream provenant du second lieu de performance, jusqu'à
se fondre parfois dans un amalgame sonore, laissant surgir un espace autre, non réel. »

(Extrait du mémoire de Lydwine Van Der Hulst)

A l’occasion de la seconde performance (en avril 2006) nous n’utilisons qu’une seule Wimicam afin de mieux travailler les aspects locaux de la performance. Le champ autour du lieu de diffusion (l'amphithéâtre de ESAA) est couvert par la preneuse de son/performeuse (Lydwine Van der Hulst) qui quitte la scène pour faire le tour du bâtiment pendant que le deuxième performeur (Peter Sinclair) transforme les sons devant un public dans la salle. L'image de la camera embarquée est projetée derrière lui.

(image) (ref à l'enregistrement)

Wimcam 2

Malgré ses grandes possibilités d’expression la première Wimicam présente encore des désavantages notamment dans le fait que la personne qui tient l'appareil portable à la main ne peut pas intervenir dans le choix ou le traitement des objets sonores capturés et que de la même façon la personne au traitement audio ne peut pas guider ou encourager la personne qui tient le microphone. Habituellement dans une situation d'improvisation musicale ou sonore les deux collaborateurs dépendent l'un sur l'autre et ont tendance à utiliser des signes visuels pour correspondre. Plusieurs solutions à ce problème de communication sont envisagés : par exemple la séparation par canaux dans le casque sans fil afin de permettre la transmission de la voix (pour la communication) sur un canal et le "mix/performance" sur un autre canal. La solution finalement adoptée à été de modifier la Wimicam pour permettre de manipuler le programme de traitement audio à distance en l'équipant de capteurs et de contrôleurs et d'un émetteur sans fil pour transmettre directement les données à un ordinateur.
Ce problème a été soumis au groupe de recherche musicale STEIM* (Amsterdam, NL), spécialisé depuis une trentaine d’années dans la conception et la construction d'interfaces pour le contrôle de l'audio. En Janvier 2006, une résidence Locus Sonus au Steim a permis la réalisation spécifique de l'interface en collaboration avec Jorgen Brinkman (hardware) et Frank Baldé (software).
L'interface développée utilise une carte de contrôle sans fil de STEIM d’une portée de 50 à 100 mètre (fournies par le Steim). Deux accéléromètres permettent à l'utilisateur de contrôler les paramètres d'un programme à partir des mouvements de l'objet lui-même, auxquels s’ajoutent de deux contrôleurs rotatifs et 4 boutons poussoirs. Ce prototype utilise une alimentation sur batterie (pour l’occasion celle d'une perceuse sans fil) ce qui permet d’avoir une autonomie plus ample pour la Wimicam et la camera.
Avec cette nouvelle Wimicam Locus Sonus a expérimenté différentes combinaisons de logiciels afin d’exploiter au mieux ce nouveau prototype : le programme "Junxion" du STEIM pour formater les données de contrôle, Lisa, PD et MaxMSP pour le traitement audionumérique. Les processus de traitement ont été progressivement simplifiés, éliminant la plupart des "effets" transformation sonore pour n’utiliser que l'échantillonnage (sampling) comme principe de choix personnalisé. Dans sa version la plus récente le programme fonctionne avec un enregistrement automatique d'échantillons (par la détection d'attaques) et joue chaque "objet sonore" en boucle dans une mémoire tampon jusqu'à ce qu’il soit remplacé par l'événement sonore suivant ou choisi par l'utilisateur et ainsi stocké sous la forme d’un fichier pour être rappelé par le programme. Ainsi un nouvel environnement sonore est construit à partir des sons que le performeur a sélectionnés et sauvés.

Spatialisation

Un autre développement important concerne la spatialisation d’environnements sonores utilisant un système de diffusion multi-haut-parleurs et des objets développés pour PD (Pure Data) développés par le GMEM (Charles Bascou) en collaboration avec Locus Sonus. Au moment de l'enregistrement de chaque échantillon l'utilisateur de la Wimicam peut utiliser les coordonnées x et y fournies par les accéléromètres incorporés à la poignée pour positionner l'échantillon dans l’espace de diffusion. Lorsque le fichier est sauvé il est annoté avec ses coordonnées et lorsqu’il est rejoué il est placé à l'endroit qu'elles indiquent. Ce processus de spatialisation permet également la mise en place de protocoles qui utilisent des corrélations géographiques entre l'environnement "naturel", d'où les échantillons proviennent, et l'environnement "électroacoustique" défini par le programme et le dispositif de diffusion. Les sons peuvent être re-placés en fonction de leurs coordonnées spatiales ou bien en fonction de l'ordre chronologique dans lequel ils ont été « cueillis » et ainsi de suite. Nous avons également fait d’autres essais pour définir un protocole qui prend en compte la provenance de différentes sources, notamment de deux Wimicams éloignées géographiquement (cf Jérôme Joy et Peter Sinclair entre le GMEM et Cap15 - Locusonus Roadshow, sept 2007). La performance démarre avec les environnements sonores diffusés aux pôles opposés de l'espace electroaccoustique qui se rapprochent progressivement l'un de l'autre pendant la performance pour finir sur une rencontre des deux environnements et "compositions" proposés par les deux personnes distantes.



Wimicam3 :

Un nouveau développement (décembre 2007) incorpore l'échantillonnage et la spatialisation d’images synchronisés avec le son. Ainsi plutôt que de présenter le simple "point de vue" du microphone, il est maintenant possible d'enregistrer une image vidéo (prise directe de la webcam) et de la positionner à l'intérieur de la projection dans une petite fenêtre avec les contrôleurs x et y de la Wimicam (Scott Fitzgerald). Cette visualisation de la spatialisation facilite la compréhension pour le public du processus.

(image)

Les limites et les inconvénients du dispositif actuel :

La mise en place du dispositif de performance prend un temps considérable à cause de la complexité de l'ensemble. Ceci est du principalement à l'accumulation des diffèrent éléments pensés et développés les uns après les autres avec les autres plutôt que dans leur ensemble. En conséquence, il est difficile d’une part de travailler de façon régulière ou d’adapter le dispositifs sur différent sites part et donc maîtrise que nécessite un travail musicale avec n'importe quel appareil ou instrument n'a pu être développé.. Par ailleurs si nous voulions proposer actuellement l’utilisation de la Wimicam à des personnes non initiées cela ne serait pas possible car l'appareil est trop compliqué en tant qu’instrument et trop coûteux pour être reproduit en grand nombre. Jusqu’à présent les présentations ont plutôt été considérées comme des "démos" plutôt que comme des concerts ou des oeuvres.

L’ extrême difficulté à capturer du son dans le même espace où se trouve le système d'amplification (à cause de l'effet Larsen) fait que le performeur est rarement présent à l'intérieur de l'espace de diffusion. Bien que cette présence/absence fait partie intégrante de la problématique artistique, il est nécessaire de réfléchir davantage à la perception de l'oeuvre du point de vue du public. Il est possible qu’ une autre forme que la performance scénique soit mieux adaptée au projet (par exemple avec une présence en ligne).

L'aspect de l'objet, son esthétique (appelée en plaisantant "Arme fatale" ) rend son utilisation difficile dans des espaces publics. Pris dans son ensemble (casque, microphone parabolique, caméra) l'équipement requis pour jouer crée une image rappelant l'espionnage ou la surveillance et a tendance à générer des réactions négatives, ceci d'autant plus délicat lorsqu’il s'agit d'espaces publics. Les commentaires indiquent que le public à parfois une perception peu réaliste de la portée du microphone, le croyant capable de capter des sons distants au travers des murs etc.

Conclusion

Ces différents systèmes semblent offrir un riche champ d'exploration, notamment en termes de création artistique.

    Les points suivants nous intéressent plus particulièrement :

- La référence aux appareils portables d'usage courant (tels que téléphones mobiles) et à l'ubiquité sonore qu'ils impliquent combinés avec le concept d'expression musical ou sonore, « l'instrumentalisation » des technologies ou peut-être devrait-on dire la "lutherisation".
Les particularités de cette "lutherisation" résident dans fait de pouvoir manipuler en temps réels le son pris par le microphone et dans l’utilisation d’une qualité et précision du son transmis, nettement supérieures au standards d'un téléphone mobile par exemple.
- La performance en duplex, la rencontre de deux (ou éventuellement plusieurs) propositions en provenance de personnes et de lieux différents. D'autres artistes ou musiciens travaillent sur la question du concert ou de la performance en ligne, la particularité du projet Wimicam est de combiner ce type de rencontre avec l'instrumentalisation de l'environnement de chaque site. Le rapport qui se créer entre juxtaposition des espaces distants, l'écoute et l'improvisation nous parait particulièrement fructueux (même si difficile à maîtriser sous tous ses aspects).
-
( Voir : Pauline Oliveros "Deep Listening" www.deeplistening.org/site/telematic , le Placard, Christophe Charles…)

- La composante visuelle accompagne la sélection sonore. Nous inversons délibérément la notion du son accompagnant l'image, (comme au cinéma). Ici l'image est un moyen pour rendre compréhensible les actions du performeur et permettre une plus grand liberté en termes d'expression musicale. L’image accompagne le son.

- L'invention de protocoles pour sonder, jouer avec des espaces distants, basée sur les déplacements des performeurs et les espaces architecturaux. Cette piste semble offrir un éventail vaste d’explorations d’expressions artistiques que nous commençons juste à expérimenter.

Le développement de la Wimicam amène Locus Sonus à étudier de plus prés différents types d'appareils audio-portables. Nous allons continuer à :
    - travailler sur la voie de la "lutherie" avec des microphones et émetteurs de bonne qualité
- expérimenter des formes faisant moins référence à des technologies de surveillance (voir ci-dessus)
- nous intéresser au développement d’une version moins coûteuse pour la production en série d’exemplaires afin d'expérimenter d’autres formes avec des usagers multiples. Nous prévoyons une collaboration avec le Laboratoire des Usages à Sophia Antipolis / ENST (*France Eurocom avec Marc relieu et Christian Licoppe) qui étudient l'utilisation de la téléphonie mobile et d'autres technologies de communication personnelles en réseau. Nous espérons bénéficier des études sur l'utilisation des technologies existantes pour d’une part mieux préciser nos expérimentations artistiques et d’autre part confronter nos propres résultats avec ceux de la recherche en Sociologie (voir aussi collaboration avec le LAMES et le CRESSON).


notes :
___________________________________
Parabolic Wimicam Duo / Peter Sinclair et Jérôme Joy
Développées à partir d'expérimentations sur la captation mobile et sur le traitement acoustique en direct d'un micro ouvert (voir le projet Locustream), les Wimicams sont des micros équipés d'une parabole permettant de cibler des sélections sonores dans un environnement capté.
Ces micros "sans fil" permettent de réaliser des performances sonores en duplex, ils transmettent, à l'aide des techniques de streaming, des éléments captés dans différents lieux.
Deux Wimicams sont utilisées, l'une capte des sons, et la seconde, réalisée dernièrement en collaboration avec le STEIM à Amsterdam, est équipée de "controllers" accessibles sur la poignée du microphone qui pilotent directement les fonctions et les paramètres de traitement sonore (PureData).
Des webcams sont fixées sur les paraboles et dirigées vers les sons captés. Il s'agit d'images sans intention visuelle, témoins du direct et de la distance, projetées simultanément avec les sons dans l'espace d'écoute.
Les "capteurs" de sons performent en échantillonnant, filtrant, traitant et "depitchant" les sons depuis leur point de captation. Le public assiste à un duo qui se joue sur deux espaces, l'un en proximité et l'autre éloigné. Malgré la distance, les joueurs s'entendent et improvisent ensemble et réagissent en retour sur leur propre "prise de son".
Une performance de promeneurs/marcheurs dans des paysages sonores.


Personal Mobile Audio Environments (VERSION GB)

Introduction

Parallel to the setting up and development of the Locus stream project Locus Sonus lab started a simultaneous and complementary line of experimentation related to the capture and amplification of sound in relatively local space, an audio survey so to speak of a limited perimeter around the amplification point, the auditors position. The intention here was to experiment with making the sound flux mobile, as a counterpoint to the "Locustream" project where the capture position is fixed. Inverting the principal behind the open microphone proposal by linking the point of capture to the deambulation of a person (performer) the sound flux becomes a subjective selection and therefore a personal representation of that space offered by the person manipulating the microphone. The hypothesis being is that as we (humans) render our own personal sound space mobile, via the use of cellular phones, laptop computers, ipods etc. Could this very principal become the basis for an artistic practice? Taking as reference, musical and artistic projects based on live sampling such as those practiced by the Kaffe Mathews but also performance works using real time improvised narration (Laurie Anderson (find ref) and to a certain extent narrative principals developed by such artists as Janet Cardiff in her sound walks, Locus Sonus experimented using wireless radio microphones and headphones, concentrating, in the first instance, on the area imposed by the limits of transmission as a territory to work within.

FM Microphone


Kaffe Matthews → see references the bottom of the page




The microphone used for this work is the SENNHEISER EW152 sold as a "tie pin" microphone the transmitter can also accommodate other types of microphone (handheld voice microphones, electret field mikes etc).

The first experiments which took place at ESAA involved moving the microphone from one location to another at regular intervals but leaving it in place and "remixing" from a fixed position the captured sound along with other sounds produced locally or taken from remote streams. It was found that as with the open microphone streams, the audio content tended to be rather uneventful or at least unpredictable in terms of when and what sounds where going to be captured and to what degree they would be "performable" material. This led to the use of the mobile microphone in a handheld context.

Experiments with narration :

During one session at ESAA we attempted to develop a protocol tracing the area outlined by the transmission limits using descriptive narration. The performer with the mobile microphone (Esther Salmona) left the space where the sound diffusion was taking place and wandered around the surrounding area. Out of sight, her participation in the ongoing improvisation took the form of vocal presence as she described the environment she was experiencing. This principal was included in a public presentation of Locus Sonus work in progress at the Villa Arson in April 2006 although this principal showed promise it was put to one side as other forms were developed, notably Esther's journal des streams.

Live sampling :

During that same early session Lydwine Van der Hulst (a musician) used the mobile microphone to "sound out" the designated environment capturing acoustic phenomena and "playing" with sound producing objects while other members of the group operated on the sounds using digital processing techniques "orchestrating" them in real time. It is more this principal which has been developed subsequently.

Rotating Parabola :

Locus Sonus first used parabolic dishes to increase the directionality and the sensitivity of small electret microphones, adapting them for a better functionality as open microphones for the Locustream project. Becoming interested by the spatial possibilities offered by the focusing capabilities of parabola we made a prototype machine which combined a rotating parabola with digital sound spatialization using 8 loudspeakers. The auditors where invited to position themselves in the center of the circle of loudspeakers from this position it was possible to hear a seamless 360° audio pan synchronized with the mechanical movement of the parabola. The circle of loudspeakers was positioned within the exhibition space in such a way as to enable the listener to perceive the microphone visually through the adjacent window as it rotated at a distance of some 30m outside the exhibition space. Aside from the interest provoked by the phenomena of perceiving the distant movement of the microphone while experiencing the sound it captured from a separate space the interest also developed in the acoustic phenomena (filtering sweep) related to the movement of the parabola.

WimiCam 1 :

In response to these various experiments Locus Sonus built a first prototype of a wireless parabolic microphone and cam in July 2006.

(Images)

A wifi webcam (in-fact a compact streaming server) was added to the parabolic dish, the visual field of the camera representing roughly the same window as that of the directional microphone. The image from the camera can be accessed over the internet. For the first version of the Wimicam it was decided to create two examples of the object in order to enable a duplex performance or concert based on an encounter between two distant spaces. The audio interpretation of each space was assumed by a team of two people, the first manipulating the Wimicam and the second processing the captured signal and streaming it to the distant location. Monitoring was available for the 4 performers (through wireless headphones for the person holding the microphone) not only of the composition from the local space but also of the stream from the distant space.

(diagram)

“Je m'empare de la « Wimicam » pour découvrir l'environnement sonore qui m'entoure, et en révéler le pouvoir musical.
Des gestes se précisent (le mouvement rapide de la parabole dans l'air, le déplacement plus ou moins rapide dans l'espace ) et font naître des petites narrations. Une performance avec cette interface de jeu est présentée en duplex lors du « road show » New Yorkais.
Une partie de l’équipe joue depuis le Roebling Bridge (Pensylvanie), l'autre dans une galerie d'art à "Triangle
Below Canal Street"(NYC).
Je ballade la « Wimicam »dans le quartier, je « pioche », saisis les ambiances et Peter Sinclair les retraite en direct,
dans la galerie. La rue devient une véritable source d'orchestration sonore, en temps réel.
Je mêle spontanément des voix, des bruits de pas, des sons de voitures, d'oiseaux, d'avion; je saisis l'énergie
bouillonnante du quartier pour la retransmettre dans les différents lieux connectés à mon flux.

Celui-ci est teinté par le traitement de Peter Sinclair et se superpose au stream provenant du second lieu de performance, jusqu'à
se fondre parfois dans un amalgame sonore, laissant surgir un espace autre, non réel.”

(Extrait du mémoire de Lydwyne Van Der Hulst )

During a second performance using a single wimicam the area surrounding the presentation space (the amphitheater at ESAA) covered the performer with the wimicam (Lydwine Van der Hulst) leaving the room by a side door and circumnavigating the building while the second performer (Peter Sinclair) transformed the sounds for the seated auditorium, the image from the embarked camera is projected behind him.

(image)

Wimicam 2 :

While the scope of the Wimicam object was apparent an obvious drawback appeared in the fact that the person holding the camera could have no say in the choice and manipulation of the sounds they where picking up and similarly, the person mixing had no possible means guide or encourage the person with the mike (in a "normal" musical or sound improvisation two partners this dependent on each other would rely on visual signals to communicate between themselves). Several solutions to this problem of communication where considered such as separating the monitoring in the wireless headphones in order to transmit vocal communication on one channel and the mix presented to the public on another. The direction which was finally taken involved modifying the Wimicam to allow the person holding it to manipulate an audio program by equipping it with sensors and controls which transmit their data wirelessly to the computer.
This problem was put to the musical research group STEIM* (Amsterdam, NL) who have been specialized in electronic interfaces for sound control for the past three decades. They agreed to produce a prototype version inviting Locus Sonus to collaborate with hardware and software developers and Frank Baldé (In January 2006).

(image)
(patch)

The interface was developed using STEIM's wireless controller which has a range of 50 to 100m. Two accelerometers to allow the user to control parameters of the sound program using the movements of the object itself along with 2 rotary controllers and 4 buttons. The prototype uses the power supply and battery from a cordless drill which provides ample autonomy for the controller and the camera.

Once it was built the lab experimented using various software combinations to put the Wimicam to it's best use: "Junxion" (from STEIM) to format the control data, Lisa, PD and Max/MSP for DAP. Sound processing has gradually been simplified, eliminating most "effects" which radically transform the sound to concentrate on sampling, as a statement of a choice, a personal selection concerning the space covered, in the most recent version the program automatically samples sound events by detecting attacks and holds them looping in a memory buffer until they are either replaced by the subsequent sound event or chosen by the user and stored as a file to be recalled by the program, thus a new sound environment is constructed from the sounds which the performer has selected and saved.

Spatialization :

Another important development has been the spatialization of the above mentioned sound environment using a multi loudspeaker system and objects developed for the programming environment Pure Data by the GMEM* (Charles Bascou) in collaboration with Locus Sonus. As each sample is saved the user of the Wimicam can use the x y coordinates given by the built in accelerometers to position the sample in the audio field. When the sample is saved as a file it is tagged with these coordinates and when it is recalled it is placed in the position which they indicate. The spatialization process also allows for the development of different protocols concerning the mapping of the "natural" audio environment from which the samples are taken to the "electroacoustic" environment defined by the program and audio system. Sounds can be re placed according to their polar coordinates or according to the chronological order in which they have been collected. Attempts have also been made to define protocol which takes into account the provenance of different sound sources, thus when using sound sources from two different Wimicams in two separate and distant locations. For instance it is possible to start a performance with each sound environment situated at opposite poles of the electroacousticspace progressively approaching them to one another during the performance to end up with an amalgam of the two environments and by the same token both performers "compositions".


Wimicam 3 :
A recent development (Decembre 2007) incorporates image sampling and spatialization synchronized with sound therefore rather than simply monitoring the view point of the microphone, it is now possible to record an video file into a small window and position the window within a projection using the xy controllers of the Wimicam (Scott Fitzgerald). This visualization of spatialization facilitates the comprehension of the process for the public.

image (screen shot see scott)

Limits and Drawbacks :

Technical problems- The complexity of the whole setup and it's general “clunkyness”, a consequence of the fact that the Wimicam has been developed progressively rather than being thought through as a whole, means that it takes a prohibitive amount of time to setup the Wimicam. Subsequently it is difficult to work with the object on a regular basis or in different sites therefore skills necessary to use the thing as an instrument have not been developed and at the same time the object is to complicated to hand over to a non initiated person and too expensive to replicate in large numbers. Presentations up until now have been considered as demos as opposed to an art work or concert.

The fact that it is extremely difficult to capture sound within the same space as the amplification system means that the performer is rarely present within the performance space. This presence/absence while being an integral part of the problematic in artistic terms requires reflection regarding perception of the piece from the publics point of view.

The aesthetics of the object (which is jokingly referred to in the lab as "Fatal weapon") make it difficult to use in public spaces. The fact that the sum of equipment needed (headphones, parabolic mike, camera) create an image related to spying or surveillance tends to generate negative reactions especially when it is used in public spaces. Comments have been made indicating that people have an unrealistic perception of physical image of the microphone.

Conclusion :

It is felt that the creative possibilities of this type of portable system are of interest to Locus Sonus. Here are some different points which we feel are important.

- The reference to common hand held devices such as mobile phones and the audio ubiquity which they imply combined with the concept of "musical" expression, instrumentalization.
- The fact of being able to transmit "professional" quality audio to a remote location from a mobile source. This aspect is enhanced by the fact that the microphone is extremely sensitive and directional (unlike that of a telephone) allowing the user to focus on audio details of a given space.
- The visual component which accompanies the sound selection (the usual notion of sound accompanying image as in cinema is deliberately inverted here) is a useful means to rendering comprehensible the actions of the performer, allowing a greater liberty in terms of musical interpretation.
- The invention and use of pre-determined protocol (rules by which to compose the sound space) based on performers displacements and architectural space.

Developing the Wimicam is encouraging locus Sonus to look more closely at different forms of portable audio devices. We are joining forces with the "laboratories des usages" at Sophia Antipolis who have studied the use of mobile phones and portable technology in general. We hope that to combine our artistic experimentation with sociological research to propose projects which take into account multiuser functions.
Future developments could take in to account studies of existing technology (observation, reflection on users behaviour) and possible use of these in art works. Another possibility is to develop a simpler, cheaper and easier to use object which can be reproduced in relatively large numbers.






notes :
___________________________________
Parabolic Wimicam Duo / Peter Sinclair et Jérôme Joy
Développées à partir d'expérimentations sur la captation mobile et sur le traitement acoustique en direct d'un micro ouvert (voir le projet Locustream), les Wimicams sont des micros équipés d'une parabole permettant de cibler des sélections sonores dans un environnement capté.
Ces micros "sans fil" permettent de réaliser des performances sonores en duplex, ils transmettent, à l'aide des techniques de streaming, des éléments captés dans différents lieux.
Deux Wimicams sont utilisées, l'une capte des sons, et la seconde, réalisée dernièrement en collaboration avec le STEIM à Amsterdam, est équipée de "controllers" accessibles sur la poignée du microphone qui pilotent directement les fonctions et les paramètres de traitement sonore (PureData).
Des webcams sont fixées sur les paraboles et dirigées vers les sons captés. Il s'agit d'images sans intention visuelle, témoins du direct et de la distance, projetées simultanément avec les sons dans l'espace d'écoute.
Les "capteurs" de sons performent en échantillonnant, filtrant, traitant et "depitchant" les sons depuis leur point de captation. Le public assiste à un duo qui se joue sur deux espaces, l'un en proximité et l'autre éloigné. Malgré la distance, les joueurs s'entendent et improvisent ensemble et réagissent en retour sur leur propre "prise de son".
Une performance de promeneurs/marcheurs dans des paysages sonores.






                                



___________________________________
Référence Kaffe Matthews

live convertor kaffe matthews : biography

with a further stride into more noisy rhythms and abstract cyber landscapes, kaffe's music continues to transport and defy rules and regulations around sound and performance. her electronics her instrument, she still starts each show with no sound + grabs from what's there, making pieces crackling with digita and tones and static, fizzing into pounding beats and cut* to some hanging still space of beauty. clarity in her intent now so apparent, she seems to have sourced some kind of wizard abuse of repetition to transport all senses. the tabletop violin a rare addition, kaffe drives a wedge of life into that old laptop performic.
kaffe has been making and performing new music via all kinds of digital gadgetry all over the world for the past ten years. From a background in violin, shopkeeping, Zoology, drumming, acid house engineering and a masters in Music Technology, she is now most known for her live sampling performances of events and places in real time: processing in installation, on stage, in galleries, clubs, concert halls, tents, churches, the outback, warehouses, or ambient tea rooms. The music is vast, sculpted into textural landscapes, vibrating granular technohymns, noisy and beats via her on stage processing of sound from carefully placed microphones and an occasinal violin.

“It's dangerous, but playing live on that fragile human boundary between success and failure is an essential part of her process.”

Kaffe has become known for making site-specific sound works live, playing in the dark in the middle of the space, the audience surrounding her, the sounds moving around them. She uses self-designed software matrices through which she pulls, pushes and reprocesses sounds live, using microphones, a theremin, and feedback within the space; the site becoming her instrument. It's this practice that she's shifted to sonic furniture building, with Sonic Bed_London(Distinction,Prix Ars Electronica,2006) and the Worldwide Bed project being a central pin in this ongoing collaboration.

All material is made live, improvising and processing
with sampling instrument LiSa, in a particular place at a particular time.
Solo, largely using a small theremin and microphone feedback from in and outside performance space as sound source. collaborating, often the sound of the other musician(s). some tiny and precise pre-recorded samples occasionally used, made from electrical experiments at annette works. none are taken away afterwards.

grab, select, subvert and game with the consequences as you go. grab the silence sound too. people can hear it.


sssss