ADR ou Postsynchronisation

ADR (Automatic Dialog Replacement) : Il s’agit du terme anglais désignant la postsynchronisation. La postsynchronisation est un procédé de postproduction cinématographique consistant à réenregistrer en studio les dialogues d’un film pour remplacer ceux enregistrés lors du tournage.
A la différence du Doublage qui consiste à réenregistrer les voix dans une autre langue et par d’autres comédiens, la postsynchro fait intervenir les mêmes comédiens interprétant les mêmes répliques que lors du tournage. Cela les oblige à retrouver la même intention tout en observant une synchronisation parfaite du mouvement des lèvres.

Habillage sonore : le Stinger

Un Stinger est un élément d’habillage sonore prenant la forme d’un morceau de musique de quelques secondes qui se distingue d’une boucle ou d’un bed en ce qu’il possède un début, un milieu et une fin.
A la différence d’une boucle qui est prévue pour être jouée indéfiniment sans qu’il y ait de relâchement au moment de la reprise de la boucle, donc sans début et sans fin, le stinger est créé avec un début et une fin marqués, il n’est pas prévu pour boucler. Il caractérise un moment en soi.
Les stingers sont notamment très utilisés dans les séries télévisées. Ils servent à marquer une transition entre deux scènes, deux chapitres ou à habiller l’image lors de changement de lieux.

Bruitages d’animaux : les appeaux

bruitages d’animaux - appeau coucou

Utile au preneur de son tout comme au bruiteur de cinéma, les appeaux (appel en vieux français) sont des sortes de petits sifflets permettant d’imiter les voix de différents animaux. Funestement (pour ne pas dire lâchement) utilisés par les chasseurs pour attirer le gibier, les appeaux permettront aux preneurs de son de faire s’approcher certains animaux afin de réaliser un enregistrement plus proche. Ils permettrons aussi de réaliser les bruitages isolés de ces animaux, puis, en rassemblant ces bruitages, de reconstituer des ambiances sonores de forêt, lac, marais…
Avec un peu de pratique, il est possible d’obtenir un bruitage imitant l’animal de façon assez réaliste et qui donnera pleine satisfaction une fois replacé dans son contexte sonore d’origine.
Il en existe une multitude, chaque appeau étant généralement destiné à imiter le son d’un seul animal. Certains permettent toutefois d’imiter le cri de plusieurs oiseaux, comme l’appeau n°52 qui renferme à lui seul (combiné à votre talent) les possibles bruitages de rouge-gorge, chardonneret et rossignol. Il n’existe malheureusement pas d’appeaux pour tous les animaux, ceux-ci ayant été développés le plus souvent pour et par des chasseurs, ils ne concernent que les animaux gibiers.
Grâce aux appeaux vous pourrez entre autre réaliser de bons bruitages de merles, mésanges, canards, hiboux, coucous, palombes, tourterelles, moineaux, grives, cailles mais aussi sangliers, cerfs, lapins, souris…
Avant de conclure par une démonstration vidéo savamment orchestrée et pleine de bruitages, nous nous permettons de reprendre cette petite phrase issue du site des Appeaux Raymond : « Avant d’utiliser un appeau, il faut bien connaître le chant des oiseaux. On à déjà vu des oiseaux tomber de l’arbre sur le dos, et mourir de rire devant un novice utilisant un appeau ».
Démonstration par le bruitage :

Directivité des microphones

L’enregistrement d’un bon bruitage, d’une belle ambiance ou d’un instrument de musique nécessite de choisir le microphone adéquat. En effet la réussite d’une prise son repose sur le choix du type de micro utilisé et derrière cela sur le choix de la directivité de ce micro.
La directivité désigne en quelque sorte la direction et les limites de la sensibilité d’un micro dans l’espace. Tous les micros ne captent pas les sons de la même manière, certains s’attachant à capter tous les sons environnants devant, derrière, sur les cotés, d’autres captent uniquement les sources sonores situées face au micro, d’autres encore sont spécialisés dans la captation de sons lointains. La directivité d’un micro c’est donc la zone, de taille et de forme différente, à l’intérieure de laquelle les sources sonores devront se situer pour être captées.
Les principales directivités de microphone sont : omnidirectionnelle, cardioïde, hypercardioïde, supercardioïde (canon) et bi-directionnelle (figure 8). Chacune de ces directivités est représentée par un diagramme polaire illustrant la zone de captation du micro.

micro omnidirectionnel   Omnidirectionnelle : Les micros omnidirectionnels captent tous les sons se situant dans une sphère de 360°. En somme, ils captent uniformément tous les sons qui entourent le micro en ne favorisant aucune source. Ces micros sont à privilégier pour l’enregistrement d’ambiances ou de chœurs. Ils vous restitueront des ambiances larges, profondes et surtout très riches et très réalistes. Leur force est tout autant leur faiblesse. Les micros omnidirectionnels enregistrant les sons provenant de toutes les directions, ils captent également plus facilement des sons « parasites » comme le bruit des voitures passant sur une route située à quelques centaines de mètres derrière le micro. Leur utilisation est donc souvent difficile parce qu’elle nécessite d’être dans un environnement relativement sain de tout son parasite. Exemples de micros omnidirectionnels : Neumann KM183 ; Schoeps CCM 2 omnidirectionnel.

micro cardioïde  Cardioïde : Les micros cardioïdes sont des micros unidirectionnels favorisant la captation des sources sonores situées face au micro. Ils ont la particularité de rejeter, c’est à dire de ne pas capter, les sources sonores situées à l’arrière du micro et dans une moindre mesures les sons de coté. Leur zone de captation prend la forme d’un cœur. Les sons captés sont moins réalistes que ceux captés avec un micro omnidirectionnel puisque une partie de l’environnement sonore est rejetée mais ils sont à la fois plus proches et plus « propres » (moins de bruits parasites ou de réverbération). Ils permettent par exemple de facilement éviter les bruits de la route située derrière le micro, à condition que le bruit ne soit toutefois pas trop fort. Les micros cardioïdes sont donc assez polyvalents et font partie des plus utilisés pour la prise son d’ambiances, de bruitages mais également de voix ou d’instruments solo. Exemples de micros cardioïdes : Rode NT4 et NT5 ; AKG D112 et C415B.

micro hypercardioïde  Hypercardioïde : La directivité hypercardioïde ressemble beaucoup à la directivité cardioïde avec toutefois un lobe plus resserré à l’avant et la présence d’une petite zone de captation à l’arrière du micro. Les micros hypercardioïdes présentent donc la particularité de rejeter une grande partie des sources sonores en provenance de l’arrière et des cotés. Ils sont très utiles pour les prises son de bruitages et d’effets sonores car ils permettent très facilement d’isoler le son d’un objet ou d’une source particulière. Exemples de microphones à directivité hypercardioïde : AKG D58E/sw ; Beyerdynamic M88TG et M160.

microphone supercardioïde  Supercardioïde : Présentant un lobe avant encore plus étroit que la directivité hypercardioïde, la directivité ultracardioïde permet réellement de focaliser la captation sur un élément tout en l’isolant beaucoup du reste de l’environnement. Souvent perchés au-dessus de la tête des acteurs, les micros ultracardioïdes (aussi appelé micro canon) sont beaucoup utilisés pour l’enregistrement des dialogues de cinéma. Ils permettent également l’enregistrement de sources ponctuelles de façon isolée. Attention toutefois au fort détimbrage lorsque la source s’écarte de la zone de captation relativement étroite. Ces micros permettent aussi de capter des sources sonores lointaines, un peu à la façon d’un zoom photo. Ils sont donc très utiles en prise son de documentaire, notamment animalier. Exemple de micros canons : Rode NTG2 et NTG3 ; AKG CK69ULS ; Sennheiser MKH-416 et MKH-70.

micro bi-directionnel  Bi-directivité ou Figure en 8 : Ce type de micro présente deux zones de captation identiques à l’avant et à l’arrière du micro. Cette directivité permettra d’enregistrer simultanément sans mouvement les deux sources sonores d’une interview, d’un duo. Un micro bi-directionnel est l’un des éléments nécessaires pour l’enregistrement en M/S processing. Beaucoup de micros à ruban sont bi-directionnels. Exemple de micros bi-directionnels (entre autre) : Apex 205 (micro à ruban) ; Shure KSM44 ; Rode NT3000.

Certains micros peuvent répondre aux différentes patterns de directivité. Le AKG C414 permet par exemple de passer de l’une à l’autre des différentes directivités présentées en actionnant un simple bouton poussoir. D’autres micros (Rode NT4 et NT5 ; Oktava MC-012) proposent des capsules interchangeables.

Il n’existe aucune règle fixe en matière de choix et d’usage des micros, juste des principes de base qu’il est possible de transcender à des fins de créativité.

Lire aussi : Le principe du microphone

MIDI

MIDI : Fondé au début des années 80 par David Smith, le Musical Instrument Digital Interface est un protocole destiné à permettre la communication et la synchronisation entre un ou plusieurs ordinateurs et un équipement musical.
Le principe : aucun signal audio n’est transmis par les câbles midi (câble 5 broches DIN – mais aussi USB et firewire). Ne circulent dans ces câbles que des messages digitaux composés de 1 et de 0.
Les équipements et interfaces MIDI permettent ainsi de connecter un synthétiseur (clavier maître), une boite à rythme, une batterie électronique, … à une station de travail audio-digitale (DAW) et d’utiliser des banques de sons internes à l’ordinateur pour les reproduire et les moduler.
En appuyant sur une touche du synthétiseur, vous n’envoyez pas un son à l’ordinateur mais une série d’informations (hauteur de note, vélocité, attaque, durée …). C’est l’ordinateur qui se charge de « produire » le son en utilisant un son de référence stocké en mémoire et sur lequel il applique les variables transmises par le message MIDI (hauteur, vélocité …). Le résultat est une performance sonnant comme vivante, jouée, non mécanique mais sur un instrument digital aussi appelé instrument virtuel.

01midi_in.gif

Pour en savoir plus sur le protocole MIDI.

Les formats de fichier audio

waveform

Les fichiers audio, aussi appelés fichiers son, renferment toutes les informations issues d’une conversion A/D (analogique vers digital ou numérique)  ou de la génération directement en numérique d’un son. Ces fichiers, qu’aujourd’hui tout le monde connait et emploie, peuvent prendre différents formats dont voici les principaux.

Les fichiers audio professionnels : Dans le monde professionnel du son, on trouve principalement 3 formats de fichier qui ont en commun l’utilisation d’un signal PCM non compressé (Pulse-Code Modulation) qui délivre le maximum de qualité audio. Ces fichiers sont donc ceux qui présentent la meilleure qualité d’encodage et de restitution en contrepartie de fichiers dont la taille est parfois très grande et d’un besoin de ressources importantes pour les utiliser.

Les fichiers .aiff : Audio Interexchange File Format, il s’agit d’un format audio développé par Apple.
Les fichiers .wav : Waveform Audio Format, il s’agit d’un format audio développé par Microsoft.
Les fichiers .bwf : Broadcast Wave Format, il s’agit d’un format audio créé par l’European Broadcast Union. Il s’agit d’une nouvelle génération de fichier .wav qui est aujourd’hui considéré comme le nouveau standard de l’industrie en matière de fichier audio professionnel. Les fichiers .bwf sont des fichiers .wav auxquels sont ajoutés des « chunks » contenant diverses informations comme le nom, une description, le timecode, les fichiers liés… Ces fichiers peuvent être lus comme tout fichier .wav.

Les fichiers audio compressés : L’action de compresser un fichier audio (mais également vidéo ou photo) permet de réduire la taille d’un fichier initial pour le rendre plus facilement utilisable pour certaines applications (échange par internet, sonorisation de site, …). Les fichiers de plus petites tailles renferment moins d’informations et de ce fait consomment à la fois moins d’espace de stockage et moins de ressources lors de leur utilisation. Toutefois le gain de place et de ressource se fait au détriment de la qualité du son. Pour réduire la taille des fichiers son il est en effet nécessaire de supprimer ou résumer une partie des informations contenues dans le fichier. Il en résulte une restitution beaucoup moins fidèle du son original. Même si beaucoup de personnes ne perçoivent pas de différence à l’écoute d’un wav ou d’un MP3, une oreille avertie entend immédiatement l’absence de certaines fréquences se traduisant par moins de brillance, de rondeur ou de chaleur et éventuellement l’ajout d’un bruit parasite. La compression agit notamment sur la bande passante, c’est à dire qu’elle réduit la bande de fréquences du son, en d’autres termes, elle supprime une partie des sons les plus graves et des plus aigus.

Les fichiers MP3 : Le format MP3 est un format audio très répandu sur le marché. Il est utilisé pour les échanges de fichiers par internet, pour les lecteurs MP3 et également dans le jeu vidéo. Le taux de compression des fichiers MP3 permet d’obtenir des fichiers dont la taille est divisée par 10 sans faire trop de concession sur la qualité sonore. Le format MP3 est soumis à un brevet.
Les fichiers OGG : Il s’agit fichier audio au format Ogg contenant des données audio compressées en Vorbis, l’un des codecs du projet Ogg. Le projet ogg est encadré par la fondation Xiph.org et vise à offrir à la communauté des formats et des codecs multimédia libres de droit, en open source et donc non soumis à brevet comme le MP3. Les fichiers .ogg compressés en Vorbis offrent des résultats comparables aux MP3.
Les fichiers Lossless : Il s’agit de fichiers audio compressés mais qui, à l’inverse du .mp3 ou du .ogg n’ont subit aucune perte d’information lors de la compression (lossless = sans perte). Ce format de compression permet d’obtenir des fichiers de 30 à 70 % plus petits sans aucune perte de qualité sonore. Le FLAC (Free Lossless Audio Codec), libre et open source, est l’un des codecs les plus répandus en matière de Lossless. La décompression d’un fichier FLAC permet d’obtenir une copie à l’identique des données audio.

En conclusion, même si le format audio final de votre projet doit être compressé pour faciliter son stockage ou son utilisation, il ne fait aucun doute que vous obtiendrez de bien meilleurs résultats en enregistrant, éditant et masterisant sous un format non compressé (wav, aiff) et en ne compressant que lorsque le son est prêt à l’emploi.

Alimentation Phantom

Alimentation Phantom : il s’agit d’une alimentation fournissant un courant continu nécessaire au fonctionnement des micros possédant un circuit électronique et dépourvus d’alimentation interne, comme certains micros électrostatiques.
Les micros dynamiques (SM58, SM57, BETA57, BETA58…) ou les micros à ruban (Melodium 42 B) n’ont pas besoin d’une alimentation phantom pour fonctionner. Certains micros peuvent également fonctionner sur alimentation phantom ou sur piles (NT4 ou NTG2 de Rode).

L’alimentation phantom est généralement fournie par les consoles de mixages, les mixettes ou les enregistreurs numériques. Des modules externes et autonomes d’alimentation phantom sont également disponibles sur le marché (Rolls).
L’intérêt de l’alimentation phantom est qu’elle fournie une tension continue au microphone en utilisant le câble de modulation (celui par lequel circule le son) souvent un câble XLR, ce qui évite d’utiliser d’un câble supplémentaire pour l’alimentation.

On trouve différentes alimentations phantom. Elles se différencient par le voltage qu’elles transmettent : P-10V (-10V), P12 (+12V), P24 (+24V), P48 (+48V). L’alimentation P48 reste la plus répandue notamment parce qu’elle permet l’utilisation de longueurs de câble allant jusqu’à 100 mètres grâce à sa tension élevée.

scema de principe : alimentation phantom P48

Vu-mètre

Vu-mètre : un vu-mètre est un appareil de mesure permettant de visualiser le niveau d’entrée ou de sortie d’un son. C’est généralement grâce aux vu-mètres que l’on évalue si un niveau d’entrée ou de sortie risque de saturé ou d’endommager le matériel.

Les vu-mètre peuvent être à aiguille (systèmes analogiques), à led (diodes) ou digitaux :

vu-metre analogique

vu-metre diode - fostex fr2 le

digital peak master - vu-metre

Ben Burtt

Ben Burtt est un sound designer, bruiteur et monteur rendu célèbre notamment par son travail sur la bande son de Star Wars. Il est né en 1948 aux Etats-Unis. Diplômé en physique puis en cinéma, il est embauché par la production du premier Star War (1977) pour collecter et préparer les futurs sons du film. Armé d’un Nagra et d’un micro, il eu pendant un an la mission  de créer un univers sonore de science-fiction à l’écart des clichés électroniques employés jusqu’alors. Il lui fallait réinventer tout un tas de sons futuristes à partir de sons du quotidien, de sons que chacun a déjà entendu. Le travail remarquable qu’il réalisa pour ce film, et que tout le monde ou presque connait, à transformé la production sonore et développer l’approche du son en terme de Sound Design.

Ben Burtt a également travaillé sur les bruitages et effets sonores de E.T. l’extra-terrestre (1982), la saga des Indiana Jones pour lesquels il a reçu l’Oscar du meilleur son ou encore Willow (1988) ou dernièrement Wall-e (2008).

Ben Burtt a réussi à intégrer, au titre de private joke, le cri de Wilhelm dans plusieurs des films sur lesquels il a travaillé.

Consulter la filmographie de Ben Burtt

Ben Burtt - bruitages star wars

Sound Design

Sound design : Le terme désigne initialement une méthode de production de la bande sonore d’un film en fonction des systèmes qui la diffuseront dans les salles de cinéma (Murch). La définition du Sound Design a ensuite été enrichie d’un ensemble de techniques d’enregistrement et de traitement du son et des bruitages dans le but de créer des sons nouveaux ou un univers de sons (Burtt). Il désigne enfin aujourd’hui le processus global de conceptualisation d’une bande son dans son ensemble ou d’un univers ou un environnement sonore dans sa globalité.
Le point commun des ces trois éléments de définition est l’attention particulière qui est portée à la spatialité des sons, à la fois dans l’espace réel où ils seront diffusés mais aussi l’espace virtuel, la diégésis, qu’ils sont censés illustrer ou mimer.

Le terme sound design apparaît dans le cinéma des années 70 principalement sous l’influence du travail de Walter Murch sur les films THX 1138 (1971) ou Apocalypse Now (1979) ou celui de Ben Burtt sur Star Wars IV (1977).
Le climat de crise que connait à l’époque Hollywood, l’émergence de nouveaux moyens techniques (Nagra, Dolby) et de jeunes réalisateurs prêts à expérimenter a profondément modifié l’approche et la production des bandes-son de films. Ces réalisateurs (Coppola, Lucas, Kubrick, Scorcese…) portent un intérêt particulier aux sons qui accompagnent l’image. Lucas dira « Sound is half the experience » (le son est la moitié de l’expérience).
Ils s’intéressent à différentes dimensions du son : la dimension conceptuelle (Kubrik finira par imposer la musique classique de Strauss, Wagner,…), la dimension technique (Lucas encouragera la mise à niveau des cinémas pour profiter du son THX – Apocalyspe Now est le premier film mixé en multichannel 5.1) et la dimension expérimentale/innovatrice à travers une volonté ferme d’utiliser des nouveaux sons jamais entendus et surtout plus riches (nouveautés techniques) que les bruitages proposés par Hollywood.
Ils se sont donc entourés d’hommes dont la mission transgressait avec les usages et la hiérarchie traditionnelle de la production sonore d’Hollywood. Traditionnellement, et par force de conviction des syndicats du cinéma, la production sonore d’un film reposait sur les épaules des 3 hommes (ou équipes) : le preneur de son dont la mission est d’enregistrer sur le tournage les sons nécessaires à la production, le monteur qui se charge de découper, caler et éventuellement ajouter les sons à l’image et le mixeur qui s’occupe de « mélanger » les différentes sources sonores en un tout cohérent. Le rôle confié à Murch ou Burtt embrassait largement ces 3 fonctions.
C’est donc naturellement que le terme Sound Designer est venu qualifier cette nouvelle approche de la production sonore des films. Tous ces films ont ainsi marqué par leur bande-son, leurs bruitages, leur musique qui portent, parfois dépassent, la magie de l’image.

Aujourd’hui avec le développement du multimédia, le terme sound design s’applique dans de nombreux domaines extérieurs au cinéma, partout où il est nécessaire de « bidouiller » sons et bruitages, partout où il est nécessaire de penser le son, l’image et l’émotion comme un tout harmonieux.

Ben Burtt - bruitages star wars

Ben Burtt enregistrant le bruit d’un marteau sur les câbles d’un émeteur radio, un bruitage qui deviendra le célèbre son des pistolets laser de Star Wars.

Sources :
Whittington, William : Sound Design and Science Fiction (2007)
Interviews de Ben Burtt