Le son, une information à coder
Une version article du chapitre pour comprendre l'essentiel rapidement, vérifier si le niveau correspond, puis basculer vers Wilo pour la pratique guidée et le suivi.
Lecture
4 chapitres
Un parcours éditorialisé et navigable.
Pratique
12 questions
Quiz et cartes mémoire à ouvrir après la lecture.
Objectif
Première générale
Format rapide pour vérifier si le chapitre correspond.
Chapitre 1
I. Nature et propagation du son
A. Qu'est-ce que le son ?
Le son est une onde mécanique qui se propage dans un milieu matériel (air, eau, solide). Il est produit par la vibration d'une source, qui met en mouvement les particules du milieu environnant. Ces particules transmettent à leur tour cette vibration de proche en proche.
Imaginez une pierre jetée dans l'eau : elle crée des ondes qui se propagent. Le son, c'est un peu la même chose, mais dans l'air ou d'autres matières. Ce sont des zones de compression et de dilatation successives du milieu.
Le son a besoin d'un support matériel pour se propager. Dans le vide, il n'y a pas de son ! C'est pourquoi on n'entend rien dans l'espace sans équipement spécial.
Notre oreille capte ces variations de pression et les transforme en signaux nerveux interprétés par notre cerveau comme des sons. C'est la perception auditive.
B. Caractéristiques d'une onde sonore
Une onde sonore, comme toute onde périodique, possède plusieurs caractéristiques fondamentales :
- Période (T) : C'est la durée d'un cycle complet de la vibration. Elle s'exprime en secondes (s).
- Fréquence (f) : C'est le nombre de cycles par seconde. C'est l'inverse de la période : . Elle s'exprime en Hertz (Hz). Une fréquence élevée correspond à un son aigu, une fréquence basse à un son grave.
- Longueur d'onde (λ) : C'est la distance parcourue par l'onde pendant une période. Elle s'exprime en mètres (m).
- Amplitude : Elle représente l'intensité de la vibration, c'est-à-dire la variation maximale de pression par rapport à la pression atmosphérique. Plus l'amplitude est grande, plus le son est fort.
Ces caractéristiques sont liées par la relation fondamentale des ondes : , où est la vitesse de propagation de l'onde.
C. Vitesse de propagation du son
La vitesse de propagation du son () dépend fortement du milieu dans lequel il se propage et de sa température.
- Dans l'air à 20 °C, la vitesse du son est d'environ 343 mètres par seconde (m/s).
- Dans l'eau, elle est beaucoup plus rapide, environ 1500 m/s.
- Dans les solides comme l'acier, elle peut atteindre 5000 m/s.
C'est pourquoi on voit l'éclair avant d'entendre le tonnerre : la lumière (onde électromagnétique) est beaucoup plus rapide que le son (onde mécanique).
La formule clé est . Elle permet de calculer l'une des grandeurs si les deux autres sont connues. La vitesse du son est constante dans un milieu donné et à une température donnée.
Exemple : Si un son a une fréquence de 440 Hz (La3) et se propage dans l'air à 20°C (v ≈ 343 m/s), sa longueur d'onde sera : .
D. Domaine de l'audible
L'oreille humaine n'est sensible qu'à une certaine plage de fréquences. C'est ce qu'on appelle le domaine de l'audible.
- Les infrasons sont des sons dont la fréquence est inférieure à 20 Hz. Nous ne les entendons pas, mais certains animaux (éléphants) les perçoivent. Ils peuvent provoquer des sensations physiques.
- Les sons audibles sont les sons dont la fréquence est comprise entre 20 Hz et 20 000 Hz (ou 20 kHz). C'est la plage de notre perception auditive. Cependant, cette limite supérieure diminue avec l'âge.
- Les ultrasons sont des sons dont la fréquence est supérieure à 20 000 Hz. Nous ne les entendons pas, mais ils sont utilisés dans de nombreuses applications (échographies médicales, sonars, détection de mouvement).
Les fréquences limites de l'audition humaine sont 20 Hz et 20 000 Hz.
Chapitre 2
II. Caractérisation physique d'un son
A. Hauteur et fréquence
La hauteur d'un son est la caractéristique qui nous permet de distinguer un son grave d'un son aigu. Elle est directement liée à la fréquence du son.
- Un son avec une fréquence basse (par exemple, 100 Hz) est perçu comme grave.
- Un son avec une fréquence élevée (par exemple, 4000 Hz) est perçu comme aigu.
La note de musique La3, par exemple, correspond à une fréquence de 440 Hz. Un son musical est rarement une onde sinusoïdale pure. Il est souvent composé d'une fréquence principale appelée fréquence fondamentale et de fréquences multiples de celle-ci, appelées harmoniques. C'est la présence et l'intensité relative de ces harmoniques qui donnent sa richesse au son.
B. Intensité sonore et niveau d'intensité sonore
L'intensité sonore (I) est une grandeur physique qui mesure la puissance transportée par l'onde sonore par unité de surface. Elle s'exprime en Watts par mètre carré (). C'est ce qui est lié à la "force" du son.
L'oreille humaine est sensible à une très large gamme d'intensités sonores. Pour faciliter l'étude et la comparaison, on utilise le niveau d'intensité sonore (L), qui est une échelle logarithmique. Il s'exprime en décibels (dB).
La formule du niveau d'intensité sonore est : où :
- est le niveau d'intensité sonore en dB.
- est l'intensité sonore en .
- est l'intensité de référence, correspondant au seuil d'audibilité humain, .
Quelques repères :
- Chuchotement : 20 dB
- Conversation normale : 60 dB
- Trafic routier dense : 80 dB
- Concert rock : 110 dB
- Seuil de douleur (où le son devient douloureux et potentiellement dangereux) : environ 120 dB.
Une augmentation de 10 dB correspond à une multiplication par 10 de l'intensité sonore. Une augmentation de 3 dB correspond à un doublement de l'intensité sonore.
C. Timbre et harmoniques
Le timbre est ce qui permet de distinguer deux sons de même hauteur (même fréquence fondamentale) et de même intensité, produits par des instruments différents ou par des voix différentes. Par exemple, un piano et une flûte jouant la même note "La3" à la même intensité ne sonnent pas pareil. C'est le timbre qui fait la différence.
Le timbre est déterminé par la composition fréquentielle du son, c'est-à-dire la présence et l'intensité relative des différentes harmoniques par rapport à la fréquence fondamentale.
- La fréquence fondamentale donne la hauteur du son.
- Les harmoniques sont des fréquences multiples entiers de la fréquence fondamentale (, etc.). Leur présence et leur amplitude relative modifient la forme de l'onde et donnent sa richesse au son.
Le spectre sonore est la représentation graphique de l'amplitude de chaque fréquence présente dans un son. C'est une sorte de "carte d'identité" du son.
D. Représentation temporelle et fréquentielle
On peut représenter un son de deux manières principales :
-
Représentation temporelle (oscillogramme) : C'est la représentation de l'amplitude du signal sonore en fonction du temps. On l'observe sur un oscilloscope. Elle permet de visualiser la périodicité du son et son amplitude globale.
- L'axe horizontal représente le temps (s).
- L'axe vertical représente l'amplitude (souvent en volt si c'est un signal électrique issu d'un microphone).
-
Représentation fréquentielle (spectre en fréquence) : C'est la représentation de l'amplitude de chaque fréquence présente dans le son. On l'obtient grâce à une analyse de Fourier, qui décompose un signal complexe en une somme de signaux sinusoïdaux simples.
- L'axe horizontal représente la fréquence (Hz).
- L'axe vertical représente l'amplitude (ou le niveau d'intensité) de chaque composante fréquentielle.
Des logiciels d'analyse sonore (comme Audacity, ou des logiciels dédiés à l'acoustique) permettent de réaliser ces représentations et d'étudier les caractéristiques d'un son. Le spectre en fréquence est essentiel pour analyser le timbre d'un instrument.
Chapitre 3
III. Codage et numérisation du son
A. Du son analogique au son numérique
- Un signal analogique est un signal continu, dont l'amplitude peut prendre une infinité de valeurs au cours du temps. Le son "naturel" capté par un microphone est un signal analogique.
- Un signal numérique est un signal discret, représenté par une suite de nombres binaires (0 et 1). C'est un signal échantillonné et quantifié.
La chaîne de numérisation du son comprend trois étapes principales :
- Échantillonnage : Prélever des "instantanés" du signal analogique à intervalles de temps réguliers.
- Quantification : Attribuer une valeur numérique à chaque échantillon, parmi un nombre fini de valeurs possibles.
- Codage binaire : Représenter ces valeurs numériques en code binaire (suite de 0 et de 1).
Les avantages du numérique sont nombreux :
- Facilité de stockage et de transmission.
- Moins sensible au bruit et aux interférences.
- Possibilité de traitement et de manipulation (effets, mixage).
- Reproduction fidèle sans perte de qualité après de multiples copies.
B. Échantillonnage
L'échantillonnage est la première étape de la numérisation. Il consiste à mesurer l'amplitude du signal analogique à intervalles de temps réguliers. Le nombre d'échantillons pris par seconde est appelé fréquence d'échantillonnage (). Elle s'exprime en Hertz (Hz).
Plus la fréquence d'échantillonnage est élevée, plus le signal numérique sera fidèle au signal analogique original.
Le théorème de Nyquist-Shannon stipule que pour restituer correctement un signal analogique, la fréquence d'échantillonnage doit être au moins le double de la fréquence maximale présente dans le signal original :
- Pour la voix humaine (fréquence max environ 4 kHz), une de 8 kHz est suffisante (téléphone).
- Pour la musique (fréquence max 20 kHz), la fréquence d'échantillonnage standard est de 44,1 kHz (CD audio), ce qui respecte largement le théorème ().
- Des fréquences plus élevées (48 kHz, 96 kHz, 192 kHz) sont utilisées pour une meilleure qualité ou des applications professionnelles.
Une fréquence d'échantillonnage trop faible entraîne une perte d'information et une dégradation de la qualité (aliasing). L'échantillonnage réalise une discrétisation temporelle du signal.
C. Quantification
Après l'échantillonnage, chaque échantillon est une valeur analogique. La quantification consiste à attribuer à chaque échantillon une valeur numérique discrète, choisie parmi un nombre fini de valeurs possibles.
Ce nombre de valeurs possibles est déterminé par le nombre de bits utilisé pour coder chaque échantillon.
- Avec bits, on peut représenter valeurs différentes.
- Par exemple, si on utilise 8 bits, on peut représenter valeurs différentes. Si on utilise 16 bits, on a valeurs.
Le nombre de bits par échantillon est appelé la résolution de la quantification. Plus la résolution est élevée (plus il y a de bits), plus la quantification est fine et plus la reproduction du signal est précise.
- CD audio : 16 bits par échantillon.
- Audio professionnel : 24 bits ou 32 bits.
La quantification introduit une petite erreur appelée "bruit de quantification". Une résolution élevée réduit ce bruit et augmente la dynamique du signal (différence entre le son le plus faible et le plus fort qu'on peut enregistrer). La quantification est une discrétisation en amplitude.
D. Codage binaire
Une fois que les échantillons ont été quantifiés, chaque valeur numérique est convertie en un nombre binaire, c'est-à-dire une suite de 0 et de 1. C'est l'étape de codage binaire.
C'est un Convertisseur Analogique-Numérique (CAN) qui réalise l'échantillonnage et la quantification, produisant un flux de données binaires. Ces bits (binary digits) sont les unités fondamentales de l'information numérique. Huit bits forment un octet (byte).
Le flux de données binaires représente le signal sonore sous une forme que les ordinateurs peuvent comprendre, stocker et manipuler.
Chapitre 4
IV. Stockage et transmission du son numérique
A. Taille d'un fichier audio numérique
La taille d'un fichier audio numérique dépend de plusieurs facteurs :
- La fréquence d'échantillonnage () en Hz.
- La résolution (nombre de bits par échantillon, ).
- Le nombre de canaux (mono = 1, stéréo = 2, multicanal = 5.1, 7.1, etc.).
- La durée du son en secondes ().
La taille d'un fichier audio non compressé (en bits) peut être calculée par la formule : Taille (bits) =
Pour obtenir la taille en octets, on divise par 8 : Taille (octets) =
Le débit binaire (bitrate) est la quantité d'informations transmises par unité de temps, souvent en kilobits par seconde (kbps). Débit binaire (bits/s) =
Exemple : Un morceau de musique stéréo de 3 minutes (180 s) au format CD (44,1 kHz, 16 bits) : Débit binaire = Taille = (Mégaoctets)
Les fichiers audio non compressés peuvent être très volumineux.
B. Compression des données audio
Pour réduire la taille des fichiers et faciliter leur stockage ou leur transmission, on utilise des techniques de compression audio.
Il existe deux types principaux de compression :
-
Compression avec perte (lossy compression) :
- Elle élimine des informations considérées comme non essentielles ou inaudibles pour l'oreille humaine.
- Permet une réduction de taille très importante (jusqu'à 10 fois ou plus).
- La qualité est irréversiblement altérée, mais l'objectif est que cette altération soit peu perceptible.
- Exemples : MP3, AAC, Ogg Vorbis.
- Idéale pour le streaming et le stockage sur des appareils mobiles.
-
Compression sans perte (lossless compression) :
- Elle réduit la taille du fichier sans supprimer aucune information du signal original. Le fichier décompressé est identique à l'original.
- La réduction de taille est moins importante (environ 20-50%).
- Exemples : FLAC, ALAC (Apple Lossless Audio Codec), WAV (peut contenir des données compressées sans perte).
- Préférée par les audiophiles et pour l'archivage.
Les algorithmes de compression sont des méthodes mathématiques complexes qui analysent le signal sonore pour identifier les redondances ou les informations à éliminer. Il y a toujours un compromis qualité/taille.
C. Formats de fichiers audio
Les formats de fichiers audio sont des conteneurs qui définissent la manière dont les données audio sont organisées et compressées.
Quelques formats courants :
- WAV (Waveform Audio File Format) : Format non compressé (ou compression sans perte possible). Très haute qualité, mais fichiers volumineux. Souvent utilisé pour l'enregistrement professionnel.
- MP3 (MPEG Audio Layer III) : Format de compression avec perte le plus populaire. Très bonne réduction de taille avec une qualité perçue souvent satisfaisante.
- AAC (Advanced Audio Coding) : Compression avec perte, offre généralement une meilleure qualité que le MP3 à débit binaire égal. Utilisé par Apple (iTunes, Apple Music).
- FLAC (Free Lossless Audio Codec) : Format de compression sans perte. Fichiers de grande taille mais qualité identique à l'original.
- OGG Vorbis : Format de compression avec perte, libre de droits.
D. Transmission du son numérique
La transmission du son numérique se fait majoritairement via les réseaux informatiques, qu'il s'agisse d'internet, de réseaux mobiles (4G, 5G) ou de réseaux locaux (Wi-Fi).
- Streaming : Le son est lu en continu pendant qu'il est téléchargé. Il n'est pas nécessaire d'attendre que tout le fichier soit téléchargé. C'est le mode de fonctionnement des plateformes comme Spotify, Deezer, YouTube.
- La bande passante du réseau (quantité de données pouvant être transmise par unité de temps) est cruciale pour la qualité et la fluidité de la transmission. Un débit binaire élevé nécessite une bande passante importante.
- La latence est le délai entre l'envoi d'un signal et sa réception. Elle est importante pour les communications en temps réel (visioconférence, jeux en ligne) où un faible délai est essentiel.
La numérisation du son a révolutionné notre façon de consommer la musique et de communiquer, en rendant l'audio accessible partout et tout le temps.
Après la lecture
Passe à la pratique avec deux blocs bien visibles
Une fois le cours lu, ouvre soit le quiz pour vérifier la compréhension, soit les flashcards pour mémoriser les idées importantes. Les deux s'ouvrent dans une fenêtre dédiée.
Suite naturelle
Tu veux aller plus loin que l'article ?
Retrouve le même chapitre dans Wilo avec la suite des questions, la répétition espacée, les corrigés complets et une progression suivie dans le temps.