Le son de l’orage

 

L’été venu, il est fréquent d’entendre des grondements ou roulements de tonnerre ou mieux encore d’intenses craquements donnant l’impression que le ciel se déchire. A quoi doit-on ce son d’une puissance phénoménale ?

 

Un orage se caractérise par des coups de foudre qui sont d’intenses décharges électriques entre un nuage, chargé de particules négatives, et la terre, chargée positivement, ces inverses ayant tendance à s’attirer immanquablement. Un coup de foudre s’accompagne d’un phénomène visuel, l’éclair, et d’un phénomène sonore, le tonnerre. Eh oui ! l’éclair ne fait pas de bruit !
Tout au long de la trajectoire empruntée par la foudre, l’air atteint une température de près de 30 000°C et se dilate brutalement sous l’effet de la chaleur. Il en résulte des ondes de surpression ou ondes de choc semblables à celle d’un coup de canon. C’est donc cette expansion explosive qui crée le bruit du tonnerre.

 

Si le coup de foudre est court et droit, sans ramification, le coup de tonnerre est sec, comme un claquement ou une violente explosion. C’est ce que nous pouvons entendre sur ce bruitage enregistré par Bruitages.tv où l’on perçoit d’ailleurs la décharge électrique traverser le ciel :

Bruitage d’orage – tonnerre sec by bruitages_tv

 

Si le coup de foudre est allongé et densément ramifié et que l’on se trouve à une grande distance de la source, on perçoit davantage un roulement de tonnerre qui est en fait une succession de grondements, comme sur cet exemple :
Bruitage d’orage – grondement de tonnerre by bruitages_tv

La semaine du son 2010

semaine du sonPour tous les techniciens du son, les amoureux des ambiances sonores et des bruitages, la semaine du son se déroulera en France du 12 au 24 janvier 2010. A la fois sur Paris et en région, de nombreuses conférences-débats seront organisés autour du son, de ses techniques, de ses nuisances, du son et de la voix au cinéma …

Pour plus de renseignement : lasemaineduson.org

Durée d’un CD – Compact Disc

compact disc - CD

La durée maximale d’un Compact Disc est de 74 minutes et 33 secondes, une durée qui n’est pas due au hasard, pas plus qu’à diverses contraintes techniques mais bien plus à Ludwig Von Beethoven ! ???

La petite anecdote veut que, à l’époque des balbutiements du CD (tout début 80’s), Sony et Philips ont travaillé conjointement au développement de ce nouveau média. Les premiers prototypes de CD proposés par Philips mesuraient 11,5cm et étaient d’une durée de 60 minutes, des caractéristiques identiques aux cassettes de l’époque. Sony, qui comptait beaucoup sur la numérisation des œuvres de musique classique s’est néanmoins assuré auprès de Herbert Von Karajan que toutes les œuvres de musique classique entraient dans ce format, ce qu’il confirma pour 95% des œuvres classiques mais pas pour la 9e Symphonie de Beethoven qui durait quelques minutes de plus.

Il est alors devenu impensable de couper une telle œuvre si bien que Sony insista pour que la taille et la durée d’un CD soient augmentées. Les recherches ont trouvé une interprétation de la 9e Symphonie, dirigée par Wilhelm Furtwängler, dont la durée était de 74 minutes et 33 secondes. C’est ainsi que dans les spécifications du Redbook paru en 1980, qui dresse les caractéristiques techniques standards de ce que devront être les Compact Discs, la durée maximale d’un CD a été portée à 74 minutes et 33 secondes pour un diamètre de 12cm.

Directivité des microphones

L’enregistrement d’un bon bruitage, d’une belle ambiance ou d’un instrument de musique nécessite de choisir le microphone adéquat. En effet la réussite d’une prise son repose sur le choix du type de micro utilisé et derrière cela sur le choix de la directivité de ce micro.
La directivité désigne en quelque sorte la direction et les limites de la sensibilité d’un micro dans l’espace. Tous les micros ne captent pas les sons de la même manière, certains s’attachant à capter tous les sons environnants devant, derrière, sur les cotés, d’autres captent uniquement les sources sonores situées face au micro, d’autres encore sont spécialisés dans la captation de sons lointains. La directivité d’un micro c’est donc la zone, de taille et de forme différente, à l’intérieure de laquelle les sources sonores devront se situer pour être captées.
Les principales directivités de microphone sont : omnidirectionnelle, cardioïde, hypercardioïde, supercardioïde (canon) et bi-directionnelle (figure 8). Chacune de ces directivités est représentée par un diagramme polaire illustrant la zone de captation du micro.

micro omnidirectionnel   Omnidirectionnelle : Les micros omnidirectionnels captent tous les sons se situant dans une sphère de 360°. En somme, ils captent uniformément tous les sons qui entourent le micro en ne favorisant aucune source. Ces micros sont à privilégier pour l’enregistrement d’ambiances ou de chœurs. Ils vous restitueront des ambiances larges, profondes et surtout très riches et très réalistes. Leur force est tout autant leur faiblesse. Les micros omnidirectionnels enregistrant les sons provenant de toutes les directions, ils captent également plus facilement des sons « parasites » comme le bruit des voitures passant sur une route située à quelques centaines de mètres derrière le micro. Leur utilisation est donc souvent difficile parce qu’elle nécessite d’être dans un environnement relativement sain de tout son parasite. Exemples de micros omnidirectionnels : Neumann KM183 ; Schoeps CCM 2 omnidirectionnel.

micro cardioïde  Cardioïde : Les micros cardioïdes sont des micros unidirectionnels favorisant la captation des sources sonores situées face au micro. Ils ont la particularité de rejeter, c’est à dire de ne pas capter, les sources sonores situées à l’arrière du micro et dans une moindre mesures les sons de coté. Leur zone de captation prend la forme d’un cœur. Les sons captés sont moins réalistes que ceux captés avec un micro omnidirectionnel puisque une partie de l’environnement sonore est rejetée mais ils sont à la fois plus proches et plus « propres » (moins de bruits parasites ou de réverbération). Ils permettent par exemple de facilement éviter les bruits de la route située derrière le micro, à condition que le bruit ne soit toutefois pas trop fort. Les micros cardioïdes sont donc assez polyvalents et font partie des plus utilisés pour la prise son d’ambiances, de bruitages mais également de voix ou d’instruments solo. Exemples de micros cardioïdes : Rode NT4 et NT5 ; AKG D112 et C415B.

micro hypercardioïde  Hypercardioïde : La directivité hypercardioïde ressemble beaucoup à la directivité cardioïde avec toutefois un lobe plus resserré à l’avant et la présence d’une petite zone de captation à l’arrière du micro. Les micros hypercardioïdes présentent donc la particularité de rejeter une grande partie des sources sonores en provenance de l’arrière et des cotés. Ils sont très utiles pour les prises son de bruitages et d’effets sonores car ils permettent très facilement d’isoler le son d’un objet ou d’une source particulière. Exemples de microphones à directivité hypercardioïde : AKG D58E/sw ; Beyerdynamic M88TG et M160.

microphone supercardioïde  Supercardioïde : Présentant un lobe avant encore plus étroit que la directivité hypercardioïde, la directivité ultracardioïde permet réellement de focaliser la captation sur un élément tout en l’isolant beaucoup du reste de l’environnement. Souvent perchés au-dessus de la tête des acteurs, les micros ultracardioïdes (aussi appelé micro canon) sont beaucoup utilisés pour l’enregistrement des dialogues de cinéma. Ils permettent également l’enregistrement de sources ponctuelles de façon isolée. Attention toutefois au fort détimbrage lorsque la source s’écarte de la zone de captation relativement étroite. Ces micros permettent aussi de capter des sources sonores lointaines, un peu à la façon d’un zoom photo. Ils sont donc très utiles en prise son de documentaire, notamment animalier. Exemple de micros canons : Rode NTG2 et NTG3 ; AKG CK69ULS ; Sennheiser MKH-416 et MKH-70.

micro bi-directionnel  Bi-directivité ou Figure en 8 : Ce type de micro présente deux zones de captation identiques à l’avant et à l’arrière du micro. Cette directivité permettra d’enregistrer simultanément sans mouvement les deux sources sonores d’une interview, d’un duo. Un micro bi-directionnel est l’un des éléments nécessaires pour l’enregistrement en M/S processing. Beaucoup de micros à ruban sont bi-directionnels. Exemple de micros bi-directionnels (entre autre) : Apex 205 (micro à ruban) ; Shure KSM44 ; Rode NT3000.

Certains micros peuvent répondre aux différentes patterns de directivité. Le AKG C414 permet par exemple de passer de l’une à l’autre des différentes directivités présentées en actionnant un simple bouton poussoir. D’autres micros (Rode NT4 et NT5 ; Oktava MC-012) proposent des capsules interchangeables.

Il n’existe aucune règle fixe en matière de choix et d’usage des micros, juste des principes de base qu’il est possible de transcender à des fins de créativité.

Lire aussi : Le principe du microphone

Les formats de fichier audio

waveform

Les fichiers audio, aussi appelés fichiers son, renferment toutes les informations issues d’une conversion A/D (analogique vers digital ou numérique)  ou de la génération directement en numérique d’un son. Ces fichiers, qu’aujourd’hui tout le monde connait et emploie, peuvent prendre différents formats dont voici les principaux.

Les fichiers audio professionnels : Dans le monde professionnel du son, on trouve principalement 3 formats de fichier qui ont en commun l’utilisation d’un signal PCM non compressé (Pulse-Code Modulation) qui délivre le maximum de qualité audio. Ces fichiers sont donc ceux qui présentent la meilleure qualité d’encodage et de restitution en contrepartie de fichiers dont la taille est parfois très grande et d’un besoin de ressources importantes pour les utiliser.

Les fichiers .aiff : Audio Interexchange File Format, il s’agit d’un format audio développé par Apple.
Les fichiers .wav : Waveform Audio Format, il s’agit d’un format audio développé par Microsoft.
Les fichiers .bwf : Broadcast Wave Format, il s’agit d’un format audio créé par l’European Broadcast Union. Il s’agit d’une nouvelle génération de fichier .wav qui est aujourd’hui considéré comme le nouveau standard de l’industrie en matière de fichier audio professionnel. Les fichiers .bwf sont des fichiers .wav auxquels sont ajoutés des « chunks » contenant diverses informations comme le nom, une description, le timecode, les fichiers liés… Ces fichiers peuvent être lus comme tout fichier .wav.

Les fichiers audio compressés : L’action de compresser un fichier audio (mais également vidéo ou photo) permet de réduire la taille d’un fichier initial pour le rendre plus facilement utilisable pour certaines applications (échange par internet, sonorisation de site, …). Les fichiers de plus petites tailles renferment moins d’informations et de ce fait consomment à la fois moins d’espace de stockage et moins de ressources lors de leur utilisation. Toutefois le gain de place et de ressource se fait au détriment de la qualité du son. Pour réduire la taille des fichiers son il est en effet nécessaire de supprimer ou résumer une partie des informations contenues dans le fichier. Il en résulte une restitution beaucoup moins fidèle du son original. Même si beaucoup de personnes ne perçoivent pas de différence à l’écoute d’un wav ou d’un MP3, une oreille avertie entend immédiatement l’absence de certaines fréquences se traduisant par moins de brillance, de rondeur ou de chaleur et éventuellement l’ajout d’un bruit parasite. La compression agit notamment sur la bande passante, c’est à dire qu’elle réduit la bande de fréquences du son, en d’autres termes, elle supprime une partie des sons les plus graves et des plus aigus.

Les fichiers MP3 : Le format MP3 est un format audio très répandu sur le marché. Il est utilisé pour les échanges de fichiers par internet, pour les lecteurs MP3 et également dans le jeu vidéo. Le taux de compression des fichiers MP3 permet d’obtenir des fichiers dont la taille est divisée par 10 sans faire trop de concession sur la qualité sonore. Le format MP3 est soumis à un brevet.
Les fichiers OGG : Il s’agit fichier audio au format Ogg contenant des données audio compressées en Vorbis, l’un des codecs du projet Ogg. Le projet ogg est encadré par la fondation Xiph.org et vise à offrir à la communauté des formats et des codecs multimédia libres de droit, en open source et donc non soumis à brevet comme le MP3. Les fichiers .ogg compressés en Vorbis offrent des résultats comparables aux MP3.
Les fichiers Lossless : Il s’agit de fichiers audio compressés mais qui, à l’inverse du .mp3 ou du .ogg n’ont subit aucune perte d’information lors de la compression (lossless = sans perte). Ce format de compression permet d’obtenir des fichiers de 30 à 70 % plus petits sans aucune perte de qualité sonore. Le FLAC (Free Lossless Audio Codec), libre et open source, est l’un des codecs les plus répandus en matière de Lossless. La décompression d’un fichier FLAC permet d’obtenir une copie à l’identique des données audio.

En conclusion, même si le format audio final de votre projet doit être compressé pour faciliter son stockage ou son utilisation, il ne fait aucun doute que vous obtiendrez de bien meilleurs résultats en enregistrant, éditant et masterisant sous un format non compressé (wav, aiff) et en ne compressant que lorsque le son est prêt à l’emploi.

Bruits et sons dans notre histoire

Bruits et sons dans notre histoire : essais sur la reconstitution du paysage sonore de Jean-Pierre Gutton

bruits et sons dans notre histoire

Présentation du livre par l’éditeur : Nos ancêtres du Moyen Age ou des Temps modernes vivaient dans un environnement souvent bruyant et dans lequel les formes de communication orale avaient, pour le plus grand nombre, une autre importance que celles de l’écrit. Les cloches rythmaient bien des activités ; les pouvoirs faisaient connaître leurs décisions par des  » crieurs  » ; charivaris, rumeurs, invectives publiques étaient les vecteurs d’une justice populaire redoutée. L’effort d’acculturation que la monarchie et les Églises conduisent pour  » policer  » sujets et fidèles tend à maîtriser bruits et sons. Le paysage sonore résulte donc de considérations autant spirituelles et sociales que matérielles. Les années 1750 commencent à découvrir intimité et acoustique, mais c’est évidemment le siècle suivant qui apportera les bouleversements les plus importants : révolution industrielle, multiplication des moyens d’information, premiers instruments de conservation et de reproduction des sons. Notre temps est confronté au fléau du bruit et aux questions, techniques et politiques, posées par sa nécessaire maîtrise. L’histoire des aspects sonores du passé, pour difficile qu’elle soit, est indispensable à la compréhension de la sensibilité de nos pères comme à celle de la nôtre.

184 pages – Editeur : Presses universitaires de France – PUF (2000) – Langue : Français
ISBN-10: 2130508642 – ISBN-13: 978-2130508649

Le Son

 Le Son de Michel Chion

Le son

Avec Le Son, Michel Chion propose à la fois un texte-bilan et un essai prospectif. Etat des lieux sur des disciplines, comme l’acoustique, la musique… ce livre invite le lecteur à une investigation du sonore dans notre vie quotidienne mais aussi dans la littérature, la musique, le cinéma. Il présente également un historique des mutations que le son a connues avec le téléphone et le phonographe, et enfin expose une réflexion critique sur le retard de la théorie à intégrer ces bouleversements. Prolongeant la démarche de Pierre Schaeffer, qui a permis de penser et de décrire les sons comme des objets, mais prenant en compte les contradictions et les résistances qu’engendre une telle démarche, l’ouvrage esquisse le programme d’une discipline nouvelle nommée acoulogie. Dans cette discipline, le son n’y est plus seulement le symbole d’une harmonie perdue ou d’un  » continent noir  » de la perception, mais aussi un objet culturel à construire par des techniques d’écoute et par une exigence de nomination. Exigence dont les poètes ont donné les plus beaux exemples.

342 pages – Editeur : Armand Colin (2004) – Langue : Français
ISBN-10: 2200341032 – ISBN-13: 978-2200341039

Le rôle des bruitages

A quoi servent les bruitages et autres éléments sonores d’un film ?
Sven E Carlsson* propose de distinguer deux principales fonctions des bruitages : créer l’illusion et servir la narration. Il présente ainsi une variante au modèle proposé par Marvin Kerner** pour qui les bruitages permettent de créer l’illusion et d’influencer le ressenti (mood).

bruitage bang  1) Créer l’illusion :

L’une des toutes premières fonctions des bruitages est de redonner vie à des images plates et mouvantes. Le principe à l’action est : je le vois, je l’entends donc j’y crois. L’exemple qui est souvent cité est celui de la bouteille factice qui est utilisée pour assommer les cowboys dans les bagarres de saloon ; elle ne produit aucun son lors du tournage mais devient bien réelle une fois que le bruitage qui convient a été ajouté en post-production. Les bruitages apportent donc de la matière, de la texture aux objets du film que nous ne pouvons pas toucher. Ils contribuent également à simuler la réalité en renforçant le sens de l’espace, en offrant aux images la 3e dimension qu’il leur manque. Ils permettent aussi de donner l’illusion d’une continuité temporelle entre des scènes tournées à différents moments, notamment par la continuité des ambiances et dialogues. Enfin, les bruitages permettent de créer l’illusion d’environnements ou d’espaces hors-champ. Imaginons une scène avec un couple au restaurant ; les différents plans serrés sur les acteurs ne dévoilent rien du décor environnant ; l’ajout d’une ambiance sonore de restaurant avec de nombreux clients en train de discuter (walla) suffira à créer l’illusion que le restaurant est plein alors qu’aucun figurant n’a participé au tournage. Je l’entends donc j’y crois !

bruitages star wars   2) Servir la narration :

Au-delà de leur inscription et enracinement dans l’univers d’un film (diégésis), les bruitages et autres éléments sonores peuvent rivaliser voire supplanter l’image dans sa fonction narrative. Ils peuvent ainsi faire avancer l’histoire, raconter quelque chose que les images ne montrent pas. W. Whittington*** présente un exemple simple : dans le premier épisode de Star Wars (1977), Lucas propose un plan fixe sur un couloir de vaisseau spatial désespérément vide pendant quelques secondes mais vide de toute action seulement à l’image ; le son nous annonce en revanche que des hommes livrent combat et s’approchent progressivement pour finalement entrer dans le cadre. Dans cet exemple une partie de l’action nous est racontée par le son avant même d’apparaître à l’écran. L’utilisation du son comme un élément de narration est relativement récente, fin des années 60, début 70. Whittington attribue ce changement par rapport aux habitudes de production hollywoodienne de l’époque à des réalisateurs comme Kubrick, Lucas, Coppola, eux-mêmes influencés par les films de science-fiction de la Nouvelle Vague française (Fareinheit 451 (1966) ; Alphaville (1965) ; La Jetée (1961)). Alfred Hitchcock demeure aussi à ses yeux un précurseur, particulièrement attentif aux bruitages (et aux silences) de ses films et à la façon de les utiliser pour renforcer la narration.
Selon Carlsson, les bruitages et plus généralement le son servent donc la narration à différents niveaux. En dirigeant l’attention des spectateurs sur ce qui se passe à l’écran ou hors-écran (ex. de Star Wars). La narration profite également du son sur le plan émotionnel. La musique comme les bruitages contribuent à créer une atmosphère qui nous informe sur le bon ton, l’humeur ou l’émotion à adopter. Ce point, assez proche de la fonction Mood proposée par Kerner, sera développé plus loin. Enfin le son sert la narration en devenant un code significatif, sémantique. Un bruitage peut ainsi incarner un code conventionnel, une sorte de cliché, un son d’Epinal : les cloches de la mort, un vent fantomatique annoncent souvent un tournant dramatique dans la narration. Le son peut aussi fonctionner comme un code propre à un film, une sorte de motif sonore annonçant toujours plus ou moins la même chose. Whittington cite par exemple pour 2001, L’odysée de l’espace (1968) la juxtaposition systématique (à 3 reprises) de l’image du monolithe et du Requiem pour Soprano de György Ligeti pour annoncer un nouveau changement, une nouvelle évolution de l’espèce humaine. De la même manière, le son peut devenir un code propre à l’oeuvre complète d’un réalisateur. Le silence a par exemple acquis une signification particulière au cours de la filmographie de Hitchcock jusqu’à devenir un code extrêmement puissant.

bruitages d’horreur    3) Influencer le ressenti :

Une autre fonction du son est d’informer sur l’atmosphère et sur les émotions des personnages du film mais aussi des spectateurs. Imaginez une scène où un homme est seul, la nuit, assis devant un feu de camp. Tout est calme, la chaleur du feu parvient jusqu’à vous notamment à travers les bruitages de crépitement. L’homme sort son harmonica et entonne un refrain nostalgique. La scène chaleureuse évoque maintenant davantage la solitude. Ajoutez à présent un cri de chouette dans la nuit si noire qu’elle demeure invisible. Huum, ça sent le roussi. L’ambiance se charge tout à coup de quelque chose de plus lourd. Saupoudrez enfin le tout avec un coup de feu, hors champ (et pas en direction de la chouette ! :-) ), afin d’informer le spectateur de la présence d’une autre personne et faire naître chez lui la question cruciale et angoissante : un ami ou un ennemi ?
Au cours de cette courte scène, les bruitages et la musique nous renseignent sur quantité de données émotionnelles, campant un décor affectif, une atmosphère pour l’image et invitant le spectateur à partager successivement la chaleur reposante du feu puis l’hostilité anxiogène d’un environnement sombre où pourraient errer des êtres mal-intentionnés. La musique jouée par l’homme nous informe également sur son propre état intérieur, nous fait partager son intimité tout en invitant là aussi le spectateur à le suivre pour quelques mélopées et rêveries nostalgiques. L’atmosphère aurait été toute autre s’il avait entonné un hymne national, non ?
W. Whittington souligne l’importance des films d’horreur dans le développement de la fonction émotionnelle des sons, notamment des bruitages. Les films gores ou d’épouvantes ont contribué à développer un culte de l’excès sonore à travers des ambiances travaillées et fortement chargées émotionnellement mais aussi à travers des bruitages plus dégoulinants que dégoulinants. Pour cet auteur, Ridley Scott avec Alien (1979) aurait ouvert une passerelle entre l’univers fermé des films d’horreur et celui de la science fiction en abordant la production sonore de son film avec la richesse des productions sonores d’horreur (notamment par l’anthropomorphisation = humanisation de nombreux bruitages et ambiances). Les bruitages, à l’instar de la musique, renferment donc un fort pouvoir évocateur capable de susciter une très large gamme d’émotions.

L’exemple de la scène du feu de camp illustre à lui seul la perméabilité des fonctions du son dans le cinéma, l’absence de frontières floues entre ces catégories et même entre les différents modèles théoriques proposés puisque les fonctions narrative et « émotionnelle » des sons se confondent sur de multiples points, la perspective narrative semblant toutefois porter un champ plus large. Un même bruitage peut donc servir plusieurs fonctions simultanément. Ces fonctions font des bruitages bien plus que de simples outils servant l’image, ils deviennent des éléments artistiques et de créativité.

* Sven E Carlsson est enseignant dans les médias en Suède. Il contribue à filmsound.org
** Kerner, Marvin M : The Art of the Sound Effects Editor (1989)
*** Whittington, William : Sound Design and Science Fiction (2007)

Le son et les sourds

lesenfantsdusilencedvd.jpg

La propagation du son : Dans un milieu compressible, le plus souvent dans l’air, le son se propage sous forme d’une variation de pressions créées par la source sonore ( le haut-parleur, par exemple). Les sons se propagent également dans les solides sous forme de vibrations des atomes appelées phonons.

Cela m’amène à vous parler du son chez les sourds.

La sensibilité vibratoire chez les sourds passe par le corps. Il existe différents canaux de perception:

L’oreille: Ce n’est pas le seul récepteur des vibrations sonores. Lorsqu’elles ne passent pas par l’oreille, elles peuvent être perçues à travers une résonance de la boîte crânienne ou d’une autre partie du  corps..

Le tactile: Le corps tout entier peut-être impliqué. La sensation vibratoire doit exister pour donner la dimension sensorielle au son.

La vue: Le sourd est sensible à l’expression du visage, à la lecture labiale. Les points de repère dans la mélodie sont visuels: les rythmes respiratoires, les postures corporelles. La vue est un sens qui dessine le son.

Beethoven, devenu sourd, habitué à la représentation mentale de la musique, avait recours à la perception vibratoire appelée « vibro-tactile » par le Professeur Guberna, à l’origine de la Verbo-Tonale ; pour vérifier la musicalité de ses créations il mordait une pièce de bois reliée à la table d’harmonie du piano, sa tête s’emplissait de vibrations par conduction osseuse.
E. Laborit dans son libre La mouette nous dit combien elle avait du plaisir quand son oncle lui mettait le manche de sa guitare dans la bouche. « Je sentais toutes les vibrations dans mon corps, les notes aiguës et les notes basses ».

Le principe du microphone

L’un des tous premiers éléments nécessaires à la prise son d’ambiances, de sons, de bruitages ou encore de voix est bien évidemment le micro.
Le microphone est un capteur analogique qui permet la conversion des ondes sonores acoustiques en impulsions électriques qui, sous cette forme, seront utilisables plus facilement pour la sonorisation ou l’enregistrement. Dans le cas le plus simple et le plus courant, le milieu aérien, une source sonore produit des variations de pression de l’air qui vont être « captées » par une partie mobile et très fragile du micro que l’on nomme la membrane. La membrane est ainsi excitées par des oscillations mécaniques qui seront ensuite converties en une tension électrique variable facilement transportable et utilisable. Cette tension électrique pourra ainsi être pré-amplifiée, amplifiée ou encore enregistrée.
Le micro et le système d’amplification, pré-amplification ou d’enregistrement qui l’accompagne fonctionnent ainsi un peu comme le système auditif humain avec son capteur (l’oreille – le tympan), ses voies de transport (le nerf auditif) et les dispositifs de traitement et mémorisation (cortex auditif, mémoire). Une grande différence toutefois entre ces deux systèmes électroacoustiques, l’oreille humaine ou animale est capable de s’adapter à différents milieux ou environnements pour être efficace dans toutes les situations alors qu’il n’existe aucun micro capable d’enregistrer de façon optimale dans tout un tas de situation.

Ainsi chaque prise son se déroulant dans des milieux différents (intérieur/extérieur, bruyant/silencieux …) et avec un objectif différent (enregistrer une ambiance ou un bruitage précis …) il convient d’utiliser des micros différents selon les situations.
Les critères ou caractéristiques qui différencie les microphones et qui conditionne leur utilisation sont les suivants : le type de micro (lié au type et condition d’utilisation), la technologie avec laquelle est fabriquée le micro (liée au type d’utilisation et au matériel associé au micro), la directivité (liée au type et condition d’utilisation) et enfin les caractéristiques électroacoustiques du micro telles que sa sensibilité, son indépendance, la réponse de fréquence… (liée au type et condition d’utilisation mais aussi à la qualité de la restitution).

micro AKG C214

Un micro AKG C214, Micro de studio électro-statique à large membrane, sur lequel il est possible d’apercevoir la membrane (pastille derrière la grille).

Lire aussi : La directivité des microphones