Éducation nationale françaiseSpécialité MathématiquesTerminale générale18 min de lecture

Les variables aléatoires

Une version article du chapitre pour comprendre l'essentiel rapidement, vérifier si le niveau correspond, puis basculer vers Wilo pour la pratique guidée et le suivi.

Lecture

5 chapitres

Un parcours éditorialisé et navigable.

Pratique

12 questions

Quiz et cartes mémoire à ouvrir après la lecture.

Objectif

Terminale générale

Format rapide pour vérifier si le chapitre correspond.

Chapitre 1

Introduction aux variables aléatoires

Définition et exemples de variables aléatoires

Une expérience aléatoire est une expérience dont le résultat ne peut pas être prédit avec certitude, même si l'on connaît toutes les conditions initiales. Par exemple, lancer un dé, tirer une carte d'un jeu, ou observer la température de demain.

L'Univers des possibles, noté Ω\Omega, est l'ensemble de tous les résultats possibles d'une expérience aléatoire.

  • Pour un lancer de dé : Ω={1,2,3,4,5,6}\Omega = \{1, 2, 3, 4, 5, 6\}
  • Pour le sexe d'un nouveau-né : Ω={Fille, Garc¸on}\Omega = \{\text{Fille, Garçon}\}

Une variable aléatoire (VA), souvent notée XX, YY, etc., est une fonction qui associe un nombre réel à chaque issue de l'univers des possibles. En d'autres termes, elle "quantifie" les résultats d'une expérience aléatoire.

Exemples :

  • Expérience : Lancer deux pièces de monnaie. Ω={PP, PF, FP, FF}\Omega = \{\text{PP, PF, FP, FF}\} (où P=pile, F=face).
    • VA XX : Nombre de "Pile" obtenus.
      • X(PP)=2X(\text{PP}) = 2
      • X(PF)=1X(\text{PF}) = 1
      • X(FP)=1X(\text{FP}) = 1
      • X(FF)=0X(\text{FF}) = 0 Les valeurs prises par XX sont {0,1,2}\{0, 1, 2\}.
  • Expérience : Choisir au hasard une personne dans une foule.
    • VA YY : Taille de la personne en centimètres.
    • VA ZZ : Âge de la personne en années.

Variable aléatoire discrète et continue

La nature des valeurs que peut prendre une variable aléatoire est cruciale pour déterminer le type de loi de probabilité à utiliser.

  • Une variable aléatoire discrète est une VA qui ne peut prendre qu'un nombre fini de valeurs, ou un nombre infini dénombrable de valeurs.

    • Ensemble fini de valeurs : Les valeurs peuvent être listées une par une. Ex: Nombre de faces obtenues en lançant 3 pièces (0, 1, 2, 3), nombre d'enfants dans une famille.
    • Ensemble infini dénombrable : Les valeurs peuvent être mises en correspondance avec les nombres entiers naturels. Ex: Nombre d'appels reçus par un centre d'appels en une heure (0, 1, 2, 3, ...).
  • Une variable aléatoire continue est une VA qui peut prendre n'importe quelle valeur dans un intervalle de nombres réels.

    • Intervalle de valeurs : Ex: La taille d'une personne (peut être 170 cm, 170.5 cm, 170.53 cm, etc.), le temps d'attente à un arrêt de bus, la température d'une pièce.
    • La distinction discrète/continue est fondamentale car elle détermine les outils mathématiques à utiliser pour calculer les probabilités.

Loi de probabilité d'une variable aléatoire discrète

Pour une variable aléatoire discrète XX, sa loi de probabilité est la distribution des probabilités sur l'ensemble de ses valeurs possibles. Elle est définie par l'ensemble des couples (xi,P(X=xi))(x_i, P(X=x_i))xix_i sont les valeurs prises par XX et P(X=xi)P(X=x_i) est la probabilité que XX prenne la valeur xix_i. On note P(X=xi)P(X=x_i) souvent pip_i.

Propriétés essentielles :

  1. Pour toute valeur xix_i, 0P(X=xi)10 \le P(X=x_i) \le 1.
  2. La somme des probabilités égale à 1 : iP(X=xi)=1\sum_i P(X=x_i) = 1. C'est logique, car XX doit nécessairement prendre l'une de ses valeurs possibles.

Tableau de loi de probabilité : C'est la manière la plus courante de représenter une loi de probabilité discrète.

xix_ix1x_1x2x_2...xnx_n
P(X=xi)P(X=x_i) ou pip_ip1p_1p2p_2...pnp_n

Exemple : Reprenons l'expérience du lancer de deux pièces et la VA XX : "Nombre de Pile". Ω={PP, PF, FP, FF}\Omega = \{\text{PP, PF, FP, FF}\}, chaque issue a une probabilité de 1/41/4.

  • P(X=0)=P(FF)=1/4P(X=0) = P(\text{FF}) = 1/4
  • P(X=1)=P(PF ou FP)=P(PF)+P(FP)=1/4+1/4=2/4=1/2P(X=1) = P(\text{PF ou FP}) = P(\text{PF}) + P(\text{FP}) = 1/4 + 1/4 = 2/4 = 1/2
  • P(X=2)=P(PP)=1/4P(X=2) = P(\text{PP}) = 1/4

Tableau de loi de probabilité pour XX :

xix_i012
P(X=xi)P(X=x_i)1/41/41/21/21/41/4

Vérification : 1/4+1/2+1/4=11/4 + 1/2 + 1/4 = 1. C'est bon !

Représentation graphique (diagramme en bâtons) : On peut visualiser la loi de probabilité avec un diagramme où l'axe des abscisses représente les valeurs xix_i et l'axe des ordonnées les probabilités P(X=xi)P(X=x_i). Chaque probabilité est représentée par un bâton.

Chapitre 2

Caractéristiques d'une variable aléatoire discrète

Espérance mathématique

L'espérance mathématique, notée E(X)E(X), est la valeur moyenne que l'on s'attend à obtenir si l'on répète l'expérience un très grand nombre de fois. On peut la voir comme le "centre de gravité" de la distribution des probabilités.

Définition de E(X)E(X) : Pour une variable aléatoire discrète XX prenant les valeurs x1,x2,,xnx_1, x_2, \ldots, x_n avec les probabilités p1,p2,,pnp_1, p_2, \ldots, p_n : E(X)=i=1nxiP(X=xi)=x1p1+x2p2++xnpnE(X) = \sum_{i=1}^{n} x_i \cdot P(X=x_i) = x_1 p_1 + x_2 p_2 + \ldots + x_n p_n

Calcul de l'espérance (Exemple du lancer de deux pièces) : XX : nombre de Pile. E(X)=0(1/4)+1(1/2)+2(1/4)E(X) = 0 \cdot (1/4) + 1 \cdot (1/2) + 2 \cdot (1/4) E(X)=0+1/2+1/2=1E(X) = 0 + 1/2 + 1/2 = 1 En moyenne, on s'attend à obtenir 1 "Pile" en lançant deux pièces.

Interprétation de l'espérance :

  • C'est la valeur moyenne "théorique" ou "attendue" de la variable aléatoire.
  • Dans le contexte des jeux d'argent, l'espérance représente le gain moyen par partie si on joue un grand nombre de fois. Une espérance positive signifie un gain moyen, négative une perte moyenne.

Linéarité de l'espérance : Pour deux variables aléatoires XX et YY et des constantes aa et bb :

  • E(aX+b)=aE(X)+bE(aX+b) = aE(X) + b
  • E(X+Y)=E(X)+E(Y)E(X+Y) = E(X) + E(Y)

Variance et écart-type

L'espérance nous donne une idée de la valeur centrale, mais elle ne dit rien sur la dispersion des valeurs autour de cette moyenne. C'est là qu'interviennent la variance et l'écart-type.

La variance, notée V(X)V(X) ou σ2(X)\sigma^2(X), mesure la dispersion des valeurs de XX autour de son espérance. Plus la variance est grande, plus les valeurs sont dispersées.

Définition de V(X)V(X) : V(X)=E((XE(X))2)=i=1n(xiE(X))2P(X=xi)V(X) = E((X - E(X))^2) = \sum_{i=1}^{n} (x_i - E(X))^2 \cdot P(X=x_i) Une formule de calcul plus pratique est : V(X)=E(X2)(E(X))2V(X) = E(X^2) - (E(X))^2E(X2)=i=1nxi2P(X=xi)E(X^2) = \sum_{i=1}^{n} x_i^2 \cdot P(X=x_i).

Calcul de la variance (Exemple du lancer de deux pièces) : On a E(X)=1E(X) = 1. Calculons E(X2)E(X^2) : E(X2)=02(1/4)+12(1/2)+22(1/4)E(X^2) = 0^2 \cdot (1/4) + 1^2 \cdot (1/2) + 2^2 \cdot (1/4) E(X2)=0(1/4)+1(1/2)+4(1/4)E(X^2) = 0 \cdot (1/4) + 1 \cdot (1/2) + 4 \cdot (1/4) E(X2)=0+1/2+1=3/2E(X^2) = 0 + 1/2 + 1 = 3/2 Maintenant, V(X)=E(X2)(E(X))2=3/2(1)2=3/21=1/2V(X) = E(X^2) - (E(X))^2 = 3/2 - (1)^2 = 3/2 - 1 = 1/2.

L'écart-type, noté σ(X)\sigma(X), est la racine carrée positive de la variance. Il est souvent préféré à la variance car il s'exprime dans la même unité que la variable aléatoire elle-même, ce qui facilite son interprétation.

Définition de σ(X)\sigma(X) : σ(X)=V(X)\sigma(X) = \sqrt{V(X)}

Calcul de l'écart-type (Exemple du lancer de deux pièces) : σ(X)=1/2=12=220.707\sigma(X) = \sqrt{1/2} = \frac{1}{\sqrt{2}} = \frac{\sqrt{2}}{2} \approx 0.707.

Interprétation de la dispersion :

  • Un petit écart-type indique que les valeurs de la variable aléatoire sont généralement proches de l'espérance.
  • Un grand écart-type indique que les valeurs sont plus dispersées autour de l'espérance.

Propriétés de l'espérance et de la variance

Ces propriétés sont très utiles pour simplifier les calculs lorsque l'on effectue des transformations sur la variable aléatoire.

Pour une variable aléatoire XX et des constantes aa et bb :

  • Espérance d'une transformation linéaire : E(aX+b)=aE(X)+bE(aX+b) = aE(X) + b Cela signifie que si vous multipliez toutes les valeurs par aa et ajoutez bb, l'espérance est affectée de la même manière.

  • Variance d'une transformation linéaire : V(aX+b)=a2V(X)V(aX+b) = a^2 V(X) Attention : l'ajout d'une constante bb ne change pas la dispersion, donc V(X+b)=V(X)V(X+b) = V(X). Par contre, la multiplication par aa a un effet quadratique sur la variance.

  • Écart-type d'une transformation linéaire : σ(aX+b)=a2V(X)=aσ(X)\sigma(aX+b) = \sqrt{a^2 V(X)} = |a| \sigma(X) L'écart-type est toujours positif, d'où la valeur absolue de aa.

Ces propriétés illustrent comment un changement d'échelle et de position affecte les caractéristiques d'une variable aléatoire. Par exemple, si XX est une température en Celsius, et que vous la convertissez en Fahrenheit (F=1.8C+32F = 1.8C + 32), alors E(F)=1.8E(C)+32E(F) = 1.8 E(C) + 32 et V(F)=(1.8)2V(C)V(F) = (1.8)^2 V(C).

Chapitre 3

Loi de Bernoulli et loi binomiale

Épreuve et loi de Bernoulli

Une épreuve de Bernoulli est une expérience aléatoire qui n'a que deux issues possibles, généralement appelées "succès" et "échec".

  • La probabilité de "succès" est notée pp.
  • La probabilité d'"échec" est alors 1p1-p.

Exemples :

  • Lancer une pièce et obtenir "Face" (succès) : p=0.5p=0.5.
  • Réussir un tir au but (succès) : pp dépend du joueur.
  • Une pièce est défectueuse (succès) : pp est le taux de défectuosité.

La loi de probabilité de Bernoulli décrit une variable aléatoire XX qui prend la valeur 1 en cas de succès et 0 en cas d'échec. Son seul paramètre est pp.

  • P(X=1)=pP(X=1) = p
  • P(X=0)=1pP(X=0) = 1-p

Caractéristiques de la loi de Bernoulli :

  • E(X)=1p+0(1p)=pE(X) = 1 \cdot p + 0 \cdot (1-p) = p
  • V(X)=E(X2)(E(X))2=(12p+02(1p))p2=pp2=p(1p)V(X) = E(X^2) - (E(X))^2 = (1^2 \cdot p + 0^2 \cdot (1-p)) - p^2 = p - p^2 = p(1-p)
  • σ(X)=p(1p)\sigma(X) = \sqrt{p(1-p)}

Schéma de Bernoulli et loi binomiale

Un schéma de Bernoulli est une répétition de nn épreuves de Bernoulli identiques et indépendantes.

  • Répétition d'épreuves de Bernoulli : On réalise la même expérience plusieurs fois.
  • Indépendance des épreuves : Le résultat d'une épreuve n'influence pas les résultats des autres.

La loi binomiale, notée B(n,p)B(n, p), est la loi de probabilité qui décrit le nombre de succès XX obtenus lors d'un schéma de Bernoulli de nn répétitions, où pp est la probabilité de succès à chaque épreuve. Les paramètres de la loi binomiale sont nn (nombre de répétitions) et pp (probabilité de succès).

Exemple : On lance 5 fois une pièce équilibrée. On s'intéresse au nombre de "Face" (succès).

  • n=5n=5 (nombre de lancers)
  • p=0.5p=0.5 (probabilité d'obtenir "Face" à chaque lancer) La variable aléatoire XX = "nombre de Face" suit une loi binomiale B(5,0.5)B(5, 0.5).

Calcul des probabilités avec la loi binomiale

La probabilité d'obtenir exactement kk succès en nn épreuves suit la formule P(X=k)P(X=k) : P(X=k)=(nk)pk(1p)nkP(X=k) = \binom{n}{k} p^k (1-p)^{n-k} où :

  • kk est le nombre de succès souhaité (0kn0 \le k \le n).
  • pkp^k est la probabilité d'obtenir kk succès.
  • (1p)nk(1-p)^{n-k} est la probabilité d'obtenir nkn-k échecs.
  • (nk)\binom{n}{k} (lu "n parmi k") est le coefficient binomial, qui représente le nombre de façons de choisir kk succès parmi nn épreuves. Il se calcule par (nk)=n!k!(nk)!\binom{n}{k} = \frac{n!}{k!(n-k)!}.

Exemple : Quelle est la probabilité d'obtenir 3 "Face" en 5 lancers d'une pièce équilibrée ? (XB(5,0.5)X \sim B(5, 0.5)) P(X=3)=(53)(0.5)3(10.5)53P(X=3) = \binom{5}{3} (0.5)^3 (1-0.5)^{5-3} P(X=3)=5!3!(53)!(0.5)3(0.5)2P(X=3) = \frac{5!}{3!(5-3)!} (0.5)^3 (0.5)^2 P(X=3)=5×42×1×0.125×0.25P(X=3) = \frac{5 \times 4}{2 \times 1} \times 0.125 \times 0.25 P(X=3)=10×0.03125=0.3125P(X=3) = 10 \times 0.03125 = 0.3125

Utilisation de la calculatrice : Les calculatrices scientifiques et graphiques disposent de fonctions intégrées pour calculer les probabilités binomiales :

  • binompdf(n, p, k) pour P(X=k)P(X=k)
  • binomcdf(n, p, k) pour P(Xk)P(X \le k) (somme des probabilités de 0 à kk)

On peut aussi créer un tableau de loi binomiale qui liste P(X=k)P(X=k) pour chaque kk de 0 à nn.

Espérance, variance et écart-type de la loi binomiale

Les paramètres de la loi binomiale sont très simples à calculer :

  • Espérance : E(X)=npE(X) = np C'est le nombre de succès que l'on s'attend à obtenir en moyenne. Exemple : Pour B(5,0.5)B(5, 0.5), E(X)=5×0.5=2.5E(X) = 5 \times 0.5 = 2.5. On s'attend à 2.5 "Face" en 5 lancers.

  • Variance : V(X)=np(1p)V(X) = np(1-p) Exemple : Pour B(5,0.5)B(5, 0.5), V(X)=5×0.5×(10.5)=5×0.5×0.5=1.25V(X) = 5 \times 0.5 \times (1-0.5) = 5 \times 0.5 \times 0.5 = 1.25.

  • Écart-type : σ(X)=np(1p)\sigma(X) = \sqrt{np(1-p)} Exemple : Pour B(5,0.5)B(5, 0.5), σ(X)=1.251.118\sigma(X) = \sqrt{1.25} \approx 1.118.

L'interprétation des paramètres est la même que pour toute variable aléatoire : l'espérance indique la valeur centrale attendue, et l'écart-type la dispersion des résultats autour de cette moyenne.

Chapitre 4

Variables aléatoires continues (introduction)

Notion de densité de probabilité

Pour une variable aléatoire continue XX, la probabilité qu'elle prenne une valeur exacte est toujours nulle : ==P(X=x)=0P(X=x) = 0==. Pourquoi ? Imaginez la taille d'une personne. La probabilité qu'elle mesure exactement 170.000... cm (avec une infinité de décimales) est infime, nulle en théorie. On s'intéresse plutôt à la probabilité que la taille soit entre 169 cm et 171 cm.

Au lieu d'une fonction de probabilité P(X=x)P(X=x), on utilise une fonction de densité de probabilité, notée f(x)f(x).

  • f(x)0f(x) \ge 0 pour tout xx.
  • L'aire sous la courbe de f(x)f(x) sur tout l'intervalle des possibles doit être égale à 1. +f(x)dx=1\int_{-\infty}^{+\infty} f(x) dx = 1.

La probabilité que XX prenne une valeur dans un intervalle [a,b][a, b] est donnée par l'aire sous la courbe de la fonction de densité entre aa et bb : P(a<X<b)=abf(x)dxP(a < X < b) = \int_a^b f(x) dx Puisque P(X=x)=0P(X=x)=0, P(a<X<b)=P(aX<b)=P(a<Xb)=P(aXb)P(a < X < b) = P(a \le X < b) = P(a < X \le b) = P(a \le X \le b).

Loi uniforme sur un intervalle

La loi uniforme est la plus simple des lois continues. Elle décrit une situation où toutes les valeurs possibles à l'intérieur d'un certain intervalle ont la même "chance" d'être observées.

Une variable aléatoire XX suit une loi uniforme sur l'intervalle [a,b][a, b], notée U([a,b])U([a, b]), si sa fonction de densité est constante sur cet intervalle et nulle ailleurs : f(x)={1basi axb0sinonf(x) = \begin{cases} \frac{1}{b-a} & \text{si } a \le x \le b \\ 0 & \text{sinon} \end{cases}

Calcul de probabilités P(c<X<d)P(c < X < d) pour ac<dba \le c < d \le b : Puisque la densité est constante, cette probabilité est simplement la longueur de l'intervalle divisée par la longueur totale de l'intervalle [a,b][a, b] : P(c<X<d)=(dc)1ba=dcbaP(c < X < d) = (d-c) \cdot \frac{1}{b-a} = \frac{d-c}{b-a} Géométriquement, c'est l'aire d'un rectangle de largeur (dc)(d-c) et de hauteur 1ba\frac{1}{b-a}.

Exemple d'application : Un bus passe toutes les 10 minutes. Le temps d'attente XX d'un passager arrivant au hasard suit une loi uniforme sur [0,10][0, 10] minutes.

  • a=0a=0, b=10b=10. Donc f(x)=1/10f(x) = 1/10 pour x[0,10]x \in [0, 10].
  • Probabilité d'attendre entre 2 et 5 minutes : P(2<X<5)=52100=310=0.3P(2 < X < 5) = \frac{5-2}{10-0} = \frac{3}{10} = 0.3.

Espérance et variance de la loi uniforme :

  • E(X)=a+b2E(X) = \frac{a+b}{2} (le milieu de l'intervalle, logique !)
  • V(X)=(ba)212V(X) = \frac{(b-a)^2}{12}
  • σ(X)=(ba)212=ba12=ba23\sigma(X) = \sqrt{\frac{(b-a)^2}{12}} = \frac{b-a}{\sqrt{12}} = \frac{b-a}{2\sqrt{3}}

Chapitre 5

Loi normale (ou loi de Gauss)

Présentation de la loi normale

Une variable aléatoire XX suit une loi normale si sa fonction de densité a la forme caractéristique d'une courbe en cloche. Elle est symétrique autour de sa moyenne. Elle est entièrement caractérisée par deux paramètres :

  • μ\mu (mu) : la moyenne, qui est aussi la médiane et le mode. Elle détermine la position du centre de la cloche.
  • σ\sigma (sigma) : l'écart-type. Il détermine l'étalement de la cloche. Un petit σ\sigma donne une cloche fine et haute, un grand σ\sigma donne une cloche large et aplatie.

On la note N(μ,σ2)N(\mu, \sigma^2) (où σ2\sigma^2 est la variance).

Importance en statistiques :

  • De nombreux phénomènes naturels (tailles, poids, QI, erreurs de mesure) suivent approximativement une loi normale.
  • Le Théorème Central Limite assure que la somme ou la moyenne d'un grand nombre de variables aléatoires indépendantes tend vers une loi normale, même si les variables initiales ne le sont pas. C'est pourquoi elle est si fréquente !

Loi normale centrée réduite N(0,1)

La loi normale centrée réduite, notée N(0,1)N(0,1), est un cas particulier de la loi normale où μ=0\mu = 0 et σ=1\sigma = 1. Sa fonction de densité est f(z)=12πez2/2f(z) = \frac{1}{\sqrt{2\pi}} e^{-z^2/2}.

L'intérêt majeur de cette loi est que toute variable normale XN(μ,σ2)X \sim N(\mu, \sigma^2) peut être transformée en une variable normale centrée réduite ZZ par la formule de standardisation : Z=XμσZ = \frac{X - \mu}{\sigma} Cette transformation permet de ramener tous les problèmes de calcul de probabilités pour n'importe quelle loi normale N(μ,σ2)N(\mu, \sigma^2) à des calculs pour la loi N(0,1)N(0,1).

Calcul de probabilités P(Z<z)P(Z < z) : Les probabilités pour la loi N(0,1)N(0,1) sont généralement lues dans une table de la loi normale centrée réduite ou calculées avec une calculatrice ou un logiciel. Ces tables donnent P(Z<z)P(Z < z) pour différentes valeurs de zz.

  • Par symétrie, P(Z>z)=1P(Z<z)P(Z > z) = 1 - P(Z < z).
  • Par symétrie, P(Z<z)=P(Z>z)=1P(Z<z)P(Z < -z) = P(Z > z) = 1 - P(Z < z).

Utilisation de la calculatrice : La plupart des calculatrices ont une fonction normalFRepart ou normalcdf (Cumulative Distribution Function) qui permet de calculer P(a<Z<b)P(a < Z < b) pour la loi N(0,1)N(0,1) ou directement pour N(μ,σ2)N(\mu, \sigma^2).

Calcul de probabilités avec une loi normale N(μ,σ²)

Pour calculer des probabilités pour une loi normale XN(μ,σ2)X \sim N(\mu, \sigma^2) :

  1. Standardisation de la variable : Si vous utilisez une table de N(0,1)N(0,1), vous devez transformer les bornes de votre intervalle [a,b][a, b] en valeurs zz correspondantes : P(a<X<b)=P(aμσ<Xμσ<bμσ)=P(z1<Z<z2)P(a < X < b) = P\left(\frac{a-\mu}{\sigma} < \frac{X-\mu}{\sigma} < \frac{b-\mu}{\sigma}\right) = P\left(z_1 < Z < z_2\right). Ensuite, P(z1<Z<z2)=P(Z<z2)P(Z<z1)P(z_1 < Z < z_2) = P(Z < z_2) - P(Z < z_1).

  2. Utilisation de la calculatrice : C'est souvent plus rapide et moins source d'erreurs. La fonction normalcdf(borne_inf, borne_sup, mu, sigma) calcule directement P(\text{borne_inf} < X < \text{borne_sup}).

Exemple : La taille des hommes suit une loi normale N(175,72)N(175, 7^2) (moyenne 175 cm, écart-type 7 cm). Quelle est la probabilité qu'un homme choisi au hasard mesure entre 168 cm et 182 cm ?

  • μ=175\mu = 175, σ=7\sigma = 7.
  • On cherche P(168<X<182)P(168 < X < 182).
  • Standardisation : z1=1681757=77=1z_1 = \frac{168-175}{7} = \frac{-7}{7} = -1 z2=1821757=77=1z_2 = \frac{182-175}{7} = \frac{7}{7} = 1
  • On cherche P(1<Z<1)P(-1 < Z < 1). En utilisant une table ou calculatrice : P(1<Z<1)=P(Z<1)P(Z<1)=P(Z<1)(1P(Z<1))=2P(Z<1)1P(-1 < Z < 1) = P(Z < 1) - P(Z < -1) = P(Z < 1) - (1 - P(Z < 1)) = 2 P(Z < 1) - 1. P(Z<1)0.8413P(Z < 1) \approx 0.8413. Donc P(1<Z<1)2×0.84131=1.68261=0.6826P(-1 < Z < 1) \approx 2 \times 0.8413 - 1 = 1.6826 - 1 = 0.6826. Environ 68.26% des hommes mesurent entre 168 cm et 182 cm.

Intervalles de confiance (règle des 68-95-99.7) : C'est une règle empirique très utile pour la loi normale :

  • Environ 68% des valeurs se situent à moins d'un écart-type de la moyenne : P(μσ<X<μ+σ)0.6827P(\mu - \sigma < X < \mu + \sigma) \approx 0.6827.
  • Environ 95% des valeurs se situent à moins de deux écarts-types de la moyenne : P(μ2σ<X<μ+2σ)0.9545P(\mu - 2\sigma < X < \mu + 2\sigma) \approx 0.9545.
  • Environ 99.7% des valeurs se situent à moins de trois écarts-types de la moyenne : P(μ3σ<X<μ+3σ)0.9973P(\mu - 3\sigma < X < \mu + 3\sigma) \approx 0.9973.

Ces règles sont très utiles pour avoir une idée rapide de la répartition des données sans calculs complexes.

Après la lecture

Passe à la pratique avec deux blocs bien visibles

Une fois le cours lu, ouvre soit le quiz pour vérifier la compréhension, soit les flashcards pour mémoriser les idées importantes. Les deux s'ouvrent dans une fenêtre dédiée.

Quiz + Flashcards

Suite naturelle

Tu veux aller plus loin que l'article ?

Retrouve le même chapitre dans Wilo avec la suite des questions, la répétition espacée, les corrigés complets et une progression suivie dans le temps.