Directivité des microphones

L’enregistrement d’un bon bruitage, d’une belle ambiance ou d’un instrument de musique nécessite de choisir le microphone adéquat. En effet la réussite d’une prise son repose sur le choix du type de micro utilisé et derrière cela sur le choix de la directivité de ce micro.
La directivité désigne en quelque sorte la direction et les limites de la sensibilité d’un micro dans l’espace. Tous les micros ne captent pas les sons de la même manière, certains s’attachant à capter tous les sons environnants devant, derrière, sur les cotés, d’autres captent uniquement les sources sonores situées face au micro, d’autres encore sont spécialisés dans la captation de sons lointains. La directivité d’un micro c’est donc la zone, de taille et de forme différente, à l’intérieure de laquelle les sources sonores devront se situer pour être captées.
Les principales directivités de microphone sont : omnidirectionnelle, cardioïde, hypercardioïde, supercardioïde (canon) et bi-directionnelle (figure 8). Chacune de ces directivités est représentée par un diagramme polaire illustrant la zone de captation du micro.

micro omnidirectionnel   Omnidirectionnelle : Les micros omnidirectionnels captent tous les sons se situant dans une sphère de 360°. En somme, ils captent uniformément tous les sons qui entourent le micro en ne favorisant aucune source. Ces micros sont à privilégier pour l’enregistrement d’ambiances ou de chœurs. Ils vous restitueront des ambiances larges, profondes et surtout très riches et très réalistes. Leur force est tout autant leur faiblesse. Les micros omnidirectionnels enregistrant les sons provenant de toutes les directions, ils captent également plus facilement des sons « parasites » comme le bruit des voitures passant sur une route située à quelques centaines de mètres derrière le micro. Leur utilisation est donc souvent difficile parce qu’elle nécessite d’être dans un environnement relativement sain de tout son parasite. Exemples de micros omnidirectionnels : Neumann KM183 ; Schoeps CCM 2 omnidirectionnel.

micro cardioïde  Cardioïde : Les micros cardioïdes sont des micros unidirectionnels favorisant la captation des sources sonores situées face au micro. Ils ont la particularité de rejeter, c’est à dire de ne pas capter, les sources sonores situées à l’arrière du micro et dans une moindre mesures les sons de coté. Leur zone de captation prend la forme d’un cœur. Les sons captés sont moins réalistes que ceux captés avec un micro omnidirectionnel puisque une partie de l’environnement sonore est rejetée mais ils sont à la fois plus proches et plus « propres » (moins de bruits parasites ou de réverbération). Ils permettent par exemple de facilement éviter les bruits de la route située derrière le micro, à condition que le bruit ne soit toutefois pas trop fort. Les micros cardioïdes sont donc assez polyvalents et font partie des plus utilisés pour la prise son d’ambiances, de bruitages mais également de voix ou d’instruments solo. Exemples de micros cardioïdes : Rode NT4 et NT5 ; AKG D112 et C415B.

micro hypercardioïde  Hypercardioïde : La directivité hypercardioïde ressemble beaucoup à la directivité cardioïde avec toutefois un lobe plus resserré à l’avant et la présence d’une petite zone de captation à l’arrière du micro. Les micros hypercardioïdes présentent donc la particularité de rejeter une grande partie des sources sonores en provenance de l’arrière et des cotés. Ils sont très utiles pour les prises son de bruitages et d’effets sonores car ils permettent très facilement d’isoler le son d’un objet ou d’une source particulière. Exemples de microphones à directivité hypercardioïde : AKG D58E/sw ; Beyerdynamic M88TG et M160.

microphone supercardioïde  Supercardioïde : Présentant un lobe avant encore plus étroit que la directivité hypercardioïde, la directivité ultracardioïde permet réellement de focaliser la captation sur un élément tout en l’isolant beaucoup du reste de l’environnement. Souvent perchés au-dessus de la tête des acteurs, les micros ultracardioïdes (aussi appelé micro canon) sont beaucoup utilisés pour l’enregistrement des dialogues de cinéma. Ils permettent également l’enregistrement de sources ponctuelles de façon isolée. Attention toutefois au fort détimbrage lorsque la source s’écarte de la zone de captation relativement étroite. Ces micros permettent aussi de capter des sources sonores lointaines, un peu à la façon d’un zoom photo. Ils sont donc très utiles en prise son de documentaire, notamment animalier. Exemple de micros canons : Rode NTG2 et NTG3 ; AKG CK69ULS ; Sennheiser MKH-416 et MKH-70.

micro bi-directionnel  Bi-directivité ou Figure en 8 : Ce type de micro présente deux zones de captation identiques à l’avant et à l’arrière du micro. Cette directivité permettra d’enregistrer simultanément sans mouvement les deux sources sonores d’une interview, d’un duo. Un micro bi-directionnel est l’un des éléments nécessaires pour l’enregistrement en M/S processing. Beaucoup de micros à ruban sont bi-directionnels. Exemple de micros bi-directionnels (entre autre) : Apex 205 (micro à ruban) ; Shure KSM44 ; Rode NT3000.

Certains micros peuvent répondre aux différentes patterns de directivité. Le AKG C414 permet par exemple de passer de l’une à l’autre des différentes directivités présentées en actionnant un simple bouton poussoir. D’autres micros (Rode NT4 et NT5 ; Oktava MC-012) proposent des capsules interchangeables.

Il n’existe aucune règle fixe en matière de choix et d’usage des micros, juste des principes de base qu’il est possible de transcender à des fins de créativité.

Lire aussi : Le principe du microphone

MIDI

MIDI : Fondé au début des années 80 par David Smith, le Musical Instrument Digital Interface est un protocole destiné à permettre la communication et la synchronisation entre un ou plusieurs ordinateurs et un équipement musical.
Le principe : aucun signal audio n’est transmis par les câbles midi (câble 5 broches DIN – mais aussi USB et firewire). Ne circulent dans ces câbles que des messages digitaux composés de 1 et de 0.
Les équipements et interfaces MIDI permettent ainsi de connecter un synthétiseur (clavier maître), une boite à rythme, une batterie électronique, … à une station de travail audio-digitale (DAW) et d’utiliser des banques de sons internes à l’ordinateur pour les reproduire et les moduler.
En appuyant sur une touche du synthétiseur, vous n’envoyez pas un son à l’ordinateur mais une série d’informations (hauteur de note, vélocité, attaque, durée …). C’est l’ordinateur qui se charge de « produire » le son en utilisant un son de référence stocké en mémoire et sur lequel il applique les variables transmises par le message MIDI (hauteur, vélocité …). Le résultat est une performance sonnant comme vivante, jouée, non mécanique mais sur un instrument digital aussi appelé instrument virtuel.

01midi_in.gif

Pour en savoir plus sur le protocole MIDI.

Les formats de fichier audio

waveform

Les fichiers audio, aussi appelés fichiers son, renferment toutes les informations issues d’une conversion A/D (analogique vers digital ou numérique)  ou de la génération directement en numérique d’un son. Ces fichiers, qu’aujourd’hui tout le monde connait et emploie, peuvent prendre différents formats dont voici les principaux.

Les fichiers audio professionnels : Dans le monde professionnel du son, on trouve principalement 3 formats de fichier qui ont en commun l’utilisation d’un signal PCM non compressé (Pulse-Code Modulation) qui délivre le maximum de qualité audio. Ces fichiers sont donc ceux qui présentent la meilleure qualité d’encodage et de restitution en contrepartie de fichiers dont la taille est parfois très grande et d’un besoin de ressources importantes pour les utiliser.

Les fichiers .aiff : Audio Interexchange File Format, il s’agit d’un format audio développé par Apple.
Les fichiers .wav : Waveform Audio Format, il s’agit d’un format audio développé par Microsoft.
Les fichiers .bwf : Broadcast Wave Format, il s’agit d’un format audio créé par l’European Broadcast Union. Il s’agit d’une nouvelle génération de fichier .wav qui est aujourd’hui considéré comme le nouveau standard de l’industrie en matière de fichier audio professionnel. Les fichiers .bwf sont des fichiers .wav auxquels sont ajoutés des « chunks » contenant diverses informations comme le nom, une description, le timecode, les fichiers liés… Ces fichiers peuvent être lus comme tout fichier .wav.

Les fichiers audio compressés : L’action de compresser un fichier audio (mais également vidéo ou photo) permet de réduire la taille d’un fichier initial pour le rendre plus facilement utilisable pour certaines applications (échange par internet, sonorisation de site, …). Les fichiers de plus petites tailles renferment moins d’informations et de ce fait consomment à la fois moins d’espace de stockage et moins de ressources lors de leur utilisation. Toutefois le gain de place et de ressource se fait au détriment de la qualité du son. Pour réduire la taille des fichiers son il est en effet nécessaire de supprimer ou résumer une partie des informations contenues dans le fichier. Il en résulte une restitution beaucoup moins fidèle du son original. Même si beaucoup de personnes ne perçoivent pas de différence à l’écoute d’un wav ou d’un MP3, une oreille avertie entend immédiatement l’absence de certaines fréquences se traduisant par moins de brillance, de rondeur ou de chaleur et éventuellement l’ajout d’un bruit parasite. La compression agit notamment sur la bande passante, c’est à dire qu’elle réduit la bande de fréquences du son, en d’autres termes, elle supprime une partie des sons les plus graves et des plus aigus.

Les fichiers MP3 : Le format MP3 est un format audio très répandu sur le marché. Il est utilisé pour les échanges de fichiers par internet, pour les lecteurs MP3 et également dans le jeu vidéo. Le taux de compression des fichiers MP3 permet d’obtenir des fichiers dont la taille est divisée par 10 sans faire trop de concession sur la qualité sonore. Le format MP3 est soumis à un brevet.
Les fichiers OGG : Il s’agit fichier audio au format Ogg contenant des données audio compressées en Vorbis, l’un des codecs du projet Ogg. Le projet ogg est encadré par la fondation Xiph.org et vise à offrir à la communauté des formats et des codecs multimédia libres de droit, en open source et donc non soumis à brevet comme le MP3. Les fichiers .ogg compressés en Vorbis offrent des résultats comparables aux MP3.
Les fichiers Lossless : Il s’agit de fichiers audio compressés mais qui, à l’inverse du .mp3 ou du .ogg n’ont subit aucune perte d’information lors de la compression (lossless = sans perte). Ce format de compression permet d’obtenir des fichiers de 30 à 70 % plus petits sans aucune perte de qualité sonore. Le FLAC (Free Lossless Audio Codec), libre et open source, est l’un des codecs les plus répandus en matière de Lossless. La décompression d’un fichier FLAC permet d’obtenir une copie à l’identique des données audio.

En conclusion, même si le format audio final de votre projet doit être compressé pour faciliter son stockage ou son utilisation, il ne fait aucun doute que vous obtiendrez de bien meilleurs résultats en enregistrant, éditant et masterisant sous un format non compressé (wav, aiff) et en ne compressant que lorsque le son est prêt à l’emploi.

Alimentation Phantom

Alimentation Phantom : il s’agit d’une alimentation fournissant un courant continu nécessaire au fonctionnement des micros possédant un circuit électronique et dépourvus d’alimentation interne, comme certains micros électrostatiques.
Les micros dynamiques (SM58, SM57, BETA57, BETA58…) ou les micros à ruban (Melodium 42 B) n’ont pas besoin d’une alimentation phantom pour fonctionner. Certains micros peuvent également fonctionner sur alimentation phantom ou sur piles (NT4 ou NTG2 de Rode).

L’alimentation phantom est généralement fournie par les consoles de mixages, les mixettes ou les enregistreurs numériques. Des modules externes et autonomes d’alimentation phantom sont également disponibles sur le marché (Rolls).
L’intérêt de l’alimentation phantom est qu’elle fournie une tension continue au microphone en utilisant le câble de modulation (celui par lequel circule le son) souvent un câble XLR, ce qui évite d’utiliser d’un câble supplémentaire pour l’alimentation.

On trouve différentes alimentations phantom. Elles se différencient par le voltage qu’elles transmettent : P-10V (-10V), P12 (+12V), P24 (+24V), P48 (+48V). L’alimentation P48 reste la plus répandue notamment parce qu’elle permet l’utilisation de longueurs de câble allant jusqu’à 100 mètres grâce à sa tension élevée.

scema de principe : alimentation phantom P48

Le Son

 Le Son de Michel Chion

Le son

Avec Le Son, Michel Chion propose à la fois un texte-bilan et un essai prospectif. Etat des lieux sur des disciplines, comme l’acoustique, la musique… ce livre invite le lecteur à une investigation du sonore dans notre vie quotidienne mais aussi dans la littérature, la musique, le cinéma. Il présente également un historique des mutations que le son a connues avec le téléphone et le phonographe, et enfin expose une réflexion critique sur le retard de la théorie à intégrer ces bouleversements. Prolongeant la démarche de Pierre Schaeffer, qui a permis de penser et de décrire les sons comme des objets, mais prenant en compte les contradictions et les résistances qu’engendre une telle démarche, l’ouvrage esquisse le programme d’une discipline nouvelle nommée acoulogie. Dans cette discipline, le son n’y est plus seulement le symbole d’une harmonie perdue ou d’un  » continent noir  » de la perception, mais aussi un objet culturel à construire par des techniques d’écoute et par une exigence de nomination. Exigence dont les poètes ont donné les plus beaux exemples.

342 pages – Editeur : Armand Colin (2004) – Langue : Français
ISBN-10: 2200341032 – ISBN-13: 978-2200341039

Le rôle des bruitages

A quoi servent les bruitages et autres éléments sonores d’un film ?
Sven E Carlsson* propose de distinguer deux principales fonctions des bruitages : créer l’illusion et servir la narration. Il présente ainsi une variante au modèle proposé par Marvin Kerner** pour qui les bruitages permettent de créer l’illusion et d’influencer le ressenti (mood).

bruitage bang  1) Créer l’illusion :

L’une des toutes premières fonctions des bruitages est de redonner vie à des images plates et mouvantes. Le principe à l’action est : je le vois, je l’entends donc j’y crois. L’exemple qui est souvent cité est celui de la bouteille factice qui est utilisée pour assommer les cowboys dans les bagarres de saloon ; elle ne produit aucun son lors du tournage mais devient bien réelle une fois que le bruitage qui convient a été ajouté en post-production. Les bruitages apportent donc de la matière, de la texture aux objets du film que nous ne pouvons pas toucher. Ils contribuent également à simuler la réalité en renforçant le sens de l’espace, en offrant aux images la 3e dimension qu’il leur manque. Ils permettent aussi de donner l’illusion d’une continuité temporelle entre des scènes tournées à différents moments, notamment par la continuité des ambiances et dialogues. Enfin, les bruitages permettent de créer l’illusion d’environnements ou d’espaces hors-champ. Imaginons une scène avec un couple au restaurant ; les différents plans serrés sur les acteurs ne dévoilent rien du décor environnant ; l’ajout d’une ambiance sonore de restaurant avec de nombreux clients en train de discuter (walla) suffira à créer l’illusion que le restaurant est plein alors qu’aucun figurant n’a participé au tournage. Je l’entends donc j’y crois !

bruitages star wars   2) Servir la narration :

Au-delà de leur inscription et enracinement dans l’univers d’un film (diégésis), les bruitages et autres éléments sonores peuvent rivaliser voire supplanter l’image dans sa fonction narrative. Ils peuvent ainsi faire avancer l’histoire, raconter quelque chose que les images ne montrent pas. W. Whittington*** présente un exemple simple : dans le premier épisode de Star Wars (1977), Lucas propose un plan fixe sur un couloir de vaisseau spatial désespérément vide pendant quelques secondes mais vide de toute action seulement à l’image ; le son nous annonce en revanche que des hommes livrent combat et s’approchent progressivement pour finalement entrer dans le cadre. Dans cet exemple une partie de l’action nous est racontée par le son avant même d’apparaître à l’écran. L’utilisation du son comme un élément de narration est relativement récente, fin des années 60, début 70. Whittington attribue ce changement par rapport aux habitudes de production hollywoodienne de l’époque à des réalisateurs comme Kubrick, Lucas, Coppola, eux-mêmes influencés par les films de science-fiction de la Nouvelle Vague française (Fareinheit 451 (1966) ; Alphaville (1965) ; La Jetée (1961)). Alfred Hitchcock demeure aussi à ses yeux un précurseur, particulièrement attentif aux bruitages (et aux silences) de ses films et à la façon de les utiliser pour renforcer la narration.
Selon Carlsson, les bruitages et plus généralement le son servent donc la narration à différents niveaux. En dirigeant l’attention des spectateurs sur ce qui se passe à l’écran ou hors-écran (ex. de Star Wars). La narration profite également du son sur le plan émotionnel. La musique comme les bruitages contribuent à créer une atmosphère qui nous informe sur le bon ton, l’humeur ou l’émotion à adopter. Ce point, assez proche de la fonction Mood proposée par Kerner, sera développé plus loin. Enfin le son sert la narration en devenant un code significatif, sémantique. Un bruitage peut ainsi incarner un code conventionnel, une sorte de cliché, un son d’Epinal : les cloches de la mort, un vent fantomatique annoncent souvent un tournant dramatique dans la narration. Le son peut aussi fonctionner comme un code propre à un film, une sorte de motif sonore annonçant toujours plus ou moins la même chose. Whittington cite par exemple pour 2001, L’odysée de l’espace (1968) la juxtaposition systématique (à 3 reprises) de l’image du monolithe et du Requiem pour Soprano de György Ligeti pour annoncer un nouveau changement, une nouvelle évolution de l’espèce humaine. De la même manière, le son peut devenir un code propre à l’oeuvre complète d’un réalisateur. Le silence a par exemple acquis une signification particulière au cours de la filmographie de Hitchcock jusqu’à devenir un code extrêmement puissant.

bruitages d’horreur    3) Influencer le ressenti :

Une autre fonction du son est d’informer sur l’atmosphère et sur les émotions des personnages du film mais aussi des spectateurs. Imaginez une scène où un homme est seul, la nuit, assis devant un feu de camp. Tout est calme, la chaleur du feu parvient jusqu’à vous notamment à travers les bruitages de crépitement. L’homme sort son harmonica et entonne un refrain nostalgique. La scène chaleureuse évoque maintenant davantage la solitude. Ajoutez à présent un cri de chouette dans la nuit si noire qu’elle demeure invisible. Huum, ça sent le roussi. L’ambiance se charge tout à coup de quelque chose de plus lourd. Saupoudrez enfin le tout avec un coup de feu, hors champ (et pas en direction de la chouette ! 🙂 ), afin d’informer le spectateur de la présence d’une autre personne et faire naître chez lui la question cruciale et angoissante : un ami ou un ennemi ?
Au cours de cette courte scène, les bruitages et la musique nous renseignent sur quantité de données émotionnelles, campant un décor affectif, une atmosphère pour l’image et invitant le spectateur à partager successivement la chaleur reposante du feu puis l’hostilité anxiogène d’un environnement sombre où pourraient errer des êtres mal-intentionnés. La musique jouée par l’homme nous informe également sur son propre état intérieur, nous fait partager son intimité tout en invitant là aussi le spectateur à le suivre pour quelques mélopées et rêveries nostalgiques. L’atmosphère aurait été toute autre s’il avait entonné un hymne national, non ?
W. Whittington souligne l’importance des films d’horreur dans le développement de la fonction émotionnelle des sons, notamment des bruitages. Les films gores ou d’épouvantes ont contribué à développer un culte de l’excès sonore à travers des ambiances travaillées et fortement chargées émotionnellement mais aussi à travers des bruitages plus dégoulinants que dégoulinants. Pour cet auteur, Ridley Scott avec Alien (1979) aurait ouvert une passerelle entre l’univers fermé des films d’horreur et celui de la science fiction en abordant la production sonore de son film avec la richesse des productions sonores d’horreur (notamment par l’anthropomorphisation = humanisation de nombreux bruitages et ambiances). Les bruitages, à l’instar de la musique, renferment donc un fort pouvoir évocateur capable de susciter une très large gamme d’émotions.

L’exemple de la scène du feu de camp illustre à lui seul la perméabilité des fonctions du son dans le cinéma, l’absence de frontières floues entre ces catégories et même entre les différents modèles théoriques proposés puisque les fonctions narrative et « émotionnelle » des sons se confondent sur de multiples points, la perspective narrative semblant toutefois porter un champ plus large. Un même bruitage peut donc servir plusieurs fonctions simultanément. Ces fonctions font des bruitages bien plus que de simples outils servant l’image, ils deviennent des éléments artistiques et de créativité.

* Sven E Carlsson est enseignant dans les médias en Suède. Il contribue à filmsound.org
** Kerner, Marvin M : The Art of the Sound Effects Editor (1989)
*** Whittington, William : Sound Design and Science Fiction (2007)