Éducation nationale françaiseOption Mathématiques complémentairesTerminale générale19 min de lecture

Les lois discretes

Une version article du chapitre pour comprendre l'essentiel rapidement, vérifier si le niveau correspond, puis basculer vers Wilo pour la pratique guidée et le suivi.

Lecture

4 chapitres

Un parcours éditorialisé et navigable.

Pratique

12 questions

Quiz et cartes mémoire à ouvrir après la lecture.

Objectif

Terminale générale

Format rapide pour vérifier si le chapitre correspond.

Chapitre 1

Variables aléatoires discrètes et lois de probabilité

Définition et exemples de variables aléatoires discrètes

En probabilité, une expérience aléatoire est une expérience dont le résultat ne peut être prédit avec certitude. Par exemple, lancer un dé, tirer une carte d'un jeu, ou observer le sexe d'un nouveau-né sont des expériences aléatoires.

L'ensemble de tous les résultats possibles d'une expérience aléatoire est appelé l'univers des possibles, souvent noté Ω\Omega.

Une variable aléatoire discrète (V.A.D.) est une fonction qui associe un nombre réel à chaque issue de l'univers des possibles. Le terme "discrète" signifie que l'ensemble des valeurs que peut prendre cette variable est fini ou dénombrable (on peut les "compter").

Exemples :

  1. Lancer d'un dé équilibré à 6 faces :

    • Expérience aléatoire : Lancer un dé.
    • Univers des possibles Ω={1,2,3,4,5,6}\Omega = \{1, 2, 3, 4, 5, 6\}.
    • Variable aléatoire XX : Le résultat du lancer.
    • Les valeurs prises par la variable XX sont xi{1,2,3,4,5,6}x_i \in \{1, 2, 3, 4, 5, 6\}. C'est une variable aléatoire discrète.
  2. Lancer de deux pièces de monnaie :

    • Expérience aléatoire : Lancer deux pièces de monnaie.
    • Univers des possibles Ω={(P,P),(P,F),(F,P),(F,F)}\Omega = \{(P,P), (P,F), (F,P), (F,F)\}, où P=Pile, F=Face.
    • Variable aléatoire YY : Le nombre de "Pile" obtenus.
    • Les valeurs prises par la variable YY sont yi{0,1,2}y_i \in \{0, 1, 2\}. C'est une variable aléatoire discrète.
  3. Nombre d'appels reçus par un centre d'appels en une heure :

    • Expérience aléatoire : Observer les appels pendant une heure.
    • Univers des possibles : un nombre entier, potentiellement très grand, mais toujours un nombre entier.
    • Variable aléatoire ZZ : Le nombre d'appels.
    • Les valeurs prises par la variable ZZ sont zi{0,1,2,3,...}z_i \in \{0, 1, 2, 3, ...\}. C'est une variable aléatoire discrète (dénombrable).

Loi de probabilité d'une variable aléatoire discrète

La loi de probabilité d'une variable aléatoire discrète XX décrit la manière dont la probabilité est répartie sur les différentes valeurs que XX peut prendre. En d'autres termes, elle associe à chaque valeur xix_i que XX peut prendre, la probabilité P(X=xi)P(X=x_i) que XX prenne cette valeur.

Pour définir une loi de probabilité, il faut :

  1. Lister toutes les valeurs possibles xix_i prises par la variable aléatoire XX.
  2. Pour chaque xix_i, déterminer la probabilité P(X=xi)P(X=x_i).

Ces informations sont souvent présentées dans un tableau de loi de probabilité.

Valeurs xix_i de XXx1x_1x2x_2...xkx_k
P(X=xi)P(X=x_i)p1p_1p2p_2...pkp_k

Conditions essentielles pour une loi de probabilité :

  • Pour chaque valeur xix_i, la probabilité pi=P(X=xi)p_i = P(X=x_i) doit être comprise entre 0 et 1 : 0pi10 \le p_i \le 1.
  • La somme des probabilités de toutes les valeurs possibles doit être égale à 1 : i=1kpi=p1+p2+...+pk=1\sum_{i=1}^{k} p_i = p_1 + p_2 + ... + p_k = 1.

Exemple (suite du lancer de deux pièces) : Variable aléatoire YY : nombre de "Pile" obtenus. Valeurs possibles : {0,1,2}\{0, 1, 2\}.

  • P(Y=0)P(Y=0) : Pas de Pile (FF). P(FF)=14P(FF) = \frac{1}{4}.
  • P(Y=1)P(Y=1) : Un Pile (PF ou FP). P(PF)+P(FP)=14+14=24=12P(PF) + P(FP) = \frac{1}{4} + \frac{1}{4} = \frac{2}{4} = \frac{1}{2}.
  • P(Y=2)P(Y=2) : Deux Piles (PP). P(PP)=14P(PP) = \frac{1}{4}.

Le tableau de loi de probabilité de YY est :

yiy_i012
P(Y=yi)P(Y=y_i)14\frac{1}{4}12\frac{1}{2}14\frac{1}{4}

Vérification : 14+12+14=14+24+14=44=1\frac{1}{4} + \frac{1}{2} + \frac{1}{4} = \frac{1}{4} + \frac{2}{4} + \frac{1}{4} = \frac{4}{4} = 1. La somme est bien égale à 1.

Une représentation graphique de la loi de probabilité peut être réalisée à l'aide d'un diagramme en bâtons, où chaque bâton correspond à une valeur xix_i et sa hauteur à la probabilité P(X=xi)P(X=x_i).

Calcul de probabilités avec une loi donnée

Une fois la loi de probabilité d'une variable aléatoire XX établie, nous pouvons calculer diverses probabilités liées à XX.

  • Probabilité ponctuelle P(X=k)P(X=k) : C'est la probabilité que la variable XX prenne exactement la valeur kk. Cette valeur est directement lue dans le tableau de la loi de probabilité.

    • Exemple : P(Y=1)=12P(Y=1) = \frac{1}{2}.
  • Probabilité cumulative P(Xk)P(X \le k) : C'est la probabilité que la variable XX prenne une valeur inférieure ou égale à kk. On l'obtient en sommant les probabilités des valeurs xikx_i \le k.

    • P(Xk)=xikP(X=xi)P(X \le k) = \sum_{x_i \le k} P(X=x_i).
    • Exemple : P(Y1)=P(Y=0)+P(Y=1)=14+12=34P(Y \le 1) = P(Y=0) + P(Y=1) = \frac{1}{4} + \frac{1}{2} = \frac{3}{4}.
  • Probabilité "supérieure" P(X>k)P(X > k) : C'est la probabilité que la variable XX prenne une valeur strictement supérieure à kk. On peut la calculer en sommant les probabilités des valeurs xi>kx_i > k, ou plus efficacement en utilisant l'événement complémentaire :

    • P(X>k)=1P(Xk)P(X > k) = 1 - P(X \le k).
    • Exemple : P(Y>1)=P(Y=2)=14P(Y > 1) = P(Y=2) = \frac{1}{4}. Ou P(Y>1)=1P(Y1)=134=14P(Y > 1) = 1 - P(Y \le 1) = 1 - \frac{3}{4} = \frac{1}{4}.
  • Probabilité d'un intervalle P(aXb)P(a \le X \le b) : C'est la probabilité que XX prenne une valeur comprise entre aa et bb (inclus). On somme les probabilités des valeurs xix_i telles que axiba \le x_i \le b.

    • P(aXb)=axibP(X=xi)P(a \le X \le b) = \sum_{a \le x_i \le b} P(X=x_i).
    • Exemple : P(0Y2)=P(Y=0)+P(Y=1)+P(Y=2)=14+12+14=1P(0 \le Y \le 2) = P(Y=0) + P(Y=1) + P(Y=2) = \frac{1}{4} + \frac{1}{2} + \frac{1}{4} = 1. (C'est la somme de toutes les probabilités, ce qui est logique).

Chapitre 2

Espérance, Variance et Écart-type

Espérance d'une variable aléatoire discrète

L'espérance d'une variable aléatoire discrète XX, notée E(X)E(X), est la valeur moyenne que l'on s'attend à obtenir si l'on répète l'expérience un très grand nombre de fois. On peut la considérer comme le "centre de gravité" de la distribution des probabilités.

La définition de l'espérance est donnée par la formule : E(X)=i=1kxiP(X=xi)=x1p1+x2p2+...+xkpkE(X) = \sum_{i=1}^{k} x_i \cdot P(X=x_i) = x_1 p_1 + x_2 p_2 + ... + x_k p_kxix_i sont les valeurs prises par XX et pi=P(X=xi)p_i = P(X=x_i) sont leurs probabilités respectives.

L'interprétation de l'espérance est celle d'une moyenne à long terme. Si XX représente un gain ou une perte, l'espérance E(X)E(X) représente le gain (ou la perte) moyen par expérience sur un grand nombre de répétitions. C'est un indicateur de la tendance centrale.

Calcul de l'espérance (suite de l'exemple Y) : Pour la variable YY (nombre de "Pile" en deux lancers) :

yiy_i012
P(Y=yi)P(Y=y_i)14\frac{1}{4}12\frac{1}{2}14\frac{1}{4}

E(Y)=(014)+(112)+(214)=0+12+24=0+12+12=1E(Y) = (0 \cdot \frac{1}{4}) + (1 \cdot \frac{1}{2}) + (2 \cdot \frac{1}{4}) = 0 + \frac{1}{2} + \frac{2}{4} = 0 + \frac{1}{2} + \frac{1}{2} = 1 L'espérance du nombre de Piles est de 1. C'est logique, on s'attend en moyenne à obtenir un Pile sur deux lancers.

La linéarité de l'espérance est une propriété très utile : Pour toute variable aléatoire XX et toutes constantes réelles aa et bb : E(aX+b)=aE(X)+bE(aX+b) = aE(X) + b Ceci signifie que l'espérance d'une transformation linéaire de XX est la transformation linéaire de l'espérance de XX.

Variance et écart-type d'une variable aléatoire discrète

Alors que l'espérance nous renseigne sur la valeur moyenne, la variance et l'écart-type nous informent sur la dispersion des valeurs de la variable aléatoire autour de cette moyenne.

La définition de la variance d'une variable aléatoire discrète XX, notée V(X)V(X) ou σ2(X)\sigma^2(X), est la moyenne des carrés des écarts à l'espérance. Elle mesure à quel point les valeurs xix_i sont éloignées de E(X)E(X) en moyenne. V(X)=E((XE(X))2)=i=1k(xiE(X))2P(X=xi)V(X) = E((X - E(X))^2) = \sum_{i=1}^{k} (x_i - E(X))^2 \cdot P(X=x_i) Le calcul direct avec cette formule peut être laborieux. Une formule plus pratique, la formule de Koenig-Huygens, est souvent utilisée : V(X)=E(X2)(E(X))2V(X) = E(X^2) - (E(X))^2E(X2)=i=1kxi2P(X=xi)E(X^2) = \sum_{i=1}^{k} x_i^2 \cdot P(X=x_i).

L'écart-type d'une variable aléatoire discrète XX, noté σ(X)\sigma(X), est simplement la racine carrée de la variance : σ(X)=V(X)\sigma(X) = \sqrt{V(X)} L'interprétation de l'écart-type est qu'il donne une mesure de la dispersion des valeurs de XX dans la même unité que XX et son espérance. Un petit écart-type signifie que les valeurs sont généralement proches de l'espérance, tandis qu'un grand écart-type indique une plus grande dispersion.

Calcul de la variance et de l'écart-type (suite de l'exemple Y) : On a E(Y)=1E(Y)=1. Calculons E(Y2)E(Y^2) : E(Y2)=(0214)+(1212)+(2214)=(014)+(112)+(414)=0+12+1=32=1.5E(Y^2) = (0^2 \cdot \frac{1}{4}) + (1^2 \cdot \frac{1}{2}) + (2^2 \cdot \frac{1}{4}) = (0 \cdot \frac{1}{4}) + (1 \cdot \frac{1}{2}) + (4 \cdot \frac{1}{4}) = 0 + \frac{1}{2} + 1 = \frac{3}{2} = 1.5 Maintenant, appliquons la formule de Koenig-Huygens pour la variance : V(Y)=E(Y2)(E(Y))2=1.5(1)2=1.51=0.5V(Y) = E(Y^2) - (E(Y))^2 = 1.5 - (1)^2 = 1.5 - 1 = 0.5 Enfin, l'écart-type : σ(Y)=V(Y)=0.50.707\sigma(Y) = \sqrt{V(Y)} = \sqrt{0.5} \approx 0.707

Propriétés de l'espérance et de la variance

Ces propriétés sont très importantes pour simplifier les calculs lorsque la variable aléatoire subit une transformation linéaire. Soit XX une variable aléatoire et a,ba, b des constantes réelles.

  • Espérance d'une transformation affine : E(aX+b)=aE(X)+bE(aX+b) = aE(X) + b C'est la propriété de linéarité de l'espérance vue précédemment.

  • Variance d'une transformation affine : V(aX+b)=a2V(X)V(aX+b) = a^2 V(X) Notez que l'ajout d'une constante bb ne change pas la dispersion des valeurs (cela déplace simplement la distribution), donc bb n'apparaît pas dans la formule de la variance. La multiplication par aa étire la distribution, multipliant la variance par a2a^2.

  • Écart-type d'une transformation affine : σ(aX+b)=a2V(X)=aσ(X)\sigma(aX+b) = \sqrt{a^2 V(X)} = |a| \sigma(X) L'écart-type est toujours positif, d'où la valeur absolue a|a|.

Ces propriétés sont cruciales pour les applications aux transformations affines. Par exemple, si XX est une température en Celsius et que vous la convertissez en Fahrenheit (F=1.8C+32F = 1.8C + 32), vous pouvez facilement trouver l'espérance et l'écart-type en Fahrenheit à partir de ceux en Celsius.

Chapitre 3

La loi de Bernoulli et la loi binomiale

Épreuve et loi de Bernoulli

Une épreuve de Bernoulli est une expérience aléatoire qui n'a que deux issues possibles :

  • Un succès (souvent noté S), avec une probabilité pp.
  • Un échec (souvent noté E ou Sˉ\bar{S}), avec une probabilité 1p1-p. Le paramètre pp est la probabilité de succès, et il doit être compris entre 0 et 1 (0p10 \le p \le 1).

La loi de Bernoulli B(p) est la loi de probabilité d'une variable aléatoire XX qui prend la valeur 1 en cas de succès et 0 en cas d'échec. Son tableau de loi est :

xix_i01
P(X=xi)P(X=x_i)1p1-ppp

Exemples :

  • Lancer d'une pièce : "Pile" est un succès (p=0.5p=0.5), "Face" est un échec (1p=0.51-p=0.5).
  • Réussite à un examen : "Réussite" est un succès (pp dépend de l'étudiant), "Échec" est un échec.
  • Pièce défectueuse : "Défectueuse" est un succès (si on s'intéresse aux défectueux, pp est la proportion de pièces défectueuses), "Non défectueuse" est un échec.

Caractéristiques de la loi de Bernoulli B(p) :

  • Espérance : E(X)=(0(1p))+(1p)=pE(X) = (0 \cdot (1-p)) + (1 \cdot p) = p
  • Variance : V(X)=E(X2)(E(X))2=(02(1p))+(12p)p2=pp2=p(1p)V(X) = E(X^2) - (E(X))^2 = (0^2 \cdot (1-p)) + (1^2 \cdot p) - p^2 = p - p^2 = p(1-p)
  • Écart-type : σ(X)=p(1p)\sigma(X) = \sqrt{p(1-p)}

Schéma de Bernoulli et loi binomiale

Un schéma de Bernoulli est constitué de la répétition de nn épreuves de Bernoulli identiques et indépendantes.

  • Répétition de nn épreuves de Bernoulli : On réalise la même expérience nn fois.
  • Indépendance des épreuves : Le résultat d'une épreuve n'influence pas le résultat des autres.

Si XX est la variable aléatoire qui compte le nombre de succès obtenus au cours de ces nn épreuves, alors XX suit une loi binomiale, notée B(n,p)B(n,p).

  • nn est le nombre de répétitions (nombre d'épreuves).
  • pp est la probabilité de succès pour une seule épreuve.

Les valeurs que peut prendre XX sont les entiers de 0 à nn : {0,1,2,...,n}\{0, 1, 2, ..., n\}.

Exemple : On lance 10 fois une pièce équilibrée. Soit XX le nombre de "Pile" obtenus.

  • Chaque lancer est une épreuve de Bernoulli (succès="Pile", p=0.5p=0.5).
  • Les lancers sont indépendants.
  • Il y a n=10n=10 lancers.
  • Donc XX suit une loi binomiale B(10,0.5)B(10, 0.5).

Calcul de probabilités avec la loi binomiale

La probabilité d'obtenir exactement kk succès en nn épreuves pour une variable aléatoire XB(n,p)X \sim B(n,p) est donnée par la formule : P(X=k)=(nk)pk(1p)nkP(X=k) = \binom{n}{k} p^k (1-p)^{n-k} où :

  • (nk)\binom{n}{k} (lu "k parmi n") est le coefficient binomial, qui représente le nombre de façons de choisir kk succès parmi nn épreuves. Il est calculé par (nk)=n!k!(nk)!\binom{n}{k} = \frac{n!}{k!(n-k)!}.
  • pkp^k est la probabilité d'obtenir kk succès.
  • (1p)nk(1-p)^{n-k} est la probabilité d'obtenir nkn-k échecs.

Exemple (suite de la pièce lancée 10 fois) : Quelle est la probabilité d'obtenir exactement 3 "Pile" en 10 lancers (XB(10,0.5)X \sim B(10, 0.5), k=3k=3)? P(X=3)=(103)(0.5)3(10.5)103=10!3!(103)!(0.5)3(0.5)7P(X=3) = \binom{10}{3} (0.5)^3 (1-0.5)^{10-3} = \frac{10!}{3!(10-3)!} (0.5)^3 (0.5)^7 P(X=3)=10×9×83×2×1×(0.5)10=120×(0.5)10=120×0.00097656250.117P(X=3) = \frac{10 \times 9 \times 8}{3 \times 2 \times 1} \times (0.5)^{10} = 120 \times (0.5)^{10} = 120 \times 0.0009765625 \approx 0.117

L'utilisation de la calculatrice est fortement recommandée pour calculer ces probabilités, surtout pour des valeurs de nn élevées. La plupart des calculatrices scientifiques et graphiques possèdent des fonctions dédiées à la loi binomiale :

  • binompdf(n, p, k) pour calculer P(X=k)P(X=k).
  • binomcdf(n, p, k) pour calculer P(Xk)P(X \le k).

Pour calculer d'autres types de probabilités :

  • P(Xk)P(X \le k) : utiliser directement binomcdf(n, p, k).
  • P(X>k)=1P(Xk)P(X > k) = 1 - P(X \le k).
  • P(Xk)=1P(Xk1)P(X \ge k) = 1 - P(X \le k-1).
  • P(aXb)=P(Xb)P(Xa1)P(a \le X \le b) = P(X \le b) - P(X \le a-1).

Espérance, variance et écart-type de la loi binomiale

Les caractéristiques de la loi binomiale B(n,p)B(n,p) sont remarquablement simples :

  • Espérance : E(X)=npE(X) = np L'interprétation est intuitive : si vous répétez nn fois une épreuve avec une probabilité pp de succès, vous vous attendez en moyenne à npnp succès. Exemple : 10 lancers de pièce (n=10,p=0.5n=10, p=0.5), E(X)=10×0.5=5E(X) = 10 \times 0.5 = 5. On s'attend à 5 Piles.

  • Variance : V(X)=np(1p)V(X) = np(1-p) C'est nn fois la variance d'une seule épreuve de Bernoulli.

  • Écart-type : σ(X)=np(1p)\sigma(X) = \sqrt{np(1-p)} L'écart-type mesure la dispersion du nombre de succès autour de l'espérance.

Ces formules sont extrêmement utiles car elles évitent de longs calculs et donnent une compréhension rapide des propriétés de la loi.

Chapitre 4

Applications et modélisation

Modélisation de situations concrètes

La première étape de la modélisation consiste à choisir la loi appropriée. Pour la loi binomiale, il faut vérifier si la situation satisfait les conditions du schéma de Bernoulli :

  1. L'expérience est-elle une répétition d'épreuves identiques ?
  2. Chaque épreuve a-t-elle seulement deux issues (succès/échec) ?
  3. La probabilité de succès pp est-elle constante pour chaque épreuve ?
  4. Les épreuves sont-elles indépendantes ?

Si oui, on peut définir la variable aléatoire XX comme le nombre de succès et identifier les paramètres nn (nombre d'épreuves) et pp (probabilité de succès).

Exemple de modélisation : Une usine produit des ampoules. On sait que 5% des ampoules sont défectueuses. On prélève au hasard un échantillon de 20 ampoules pour un contrôle qualité. Soit XX le nombre d'ampoules défectueuses dans l'échantillon.

  1. Épreuve de Bernoulli : Une ampoule est défectueuse (succès) ou non (échec).
  2. Probabilité de succès : p=0.05p = 0.05.
  3. Nombre d'épreuves : n=20n = 20.
  4. Indépendance : Le fait qu'une ampoule soit défectueuse est indépendant des autres (en supposant un grand stock). Donc, XX suit une loi binomiale B(20,0.05)B(20, 0.05). On peut alors calculer la probabilité d'avoir 0, 1, 2... ampoules défectueuses, l'espérance du nombre d'ampoules défectueuses (E(X)=20×0.05=1E(X) = 20 \times 0.05 = 1), etc.

Prise de décision à l'aide des probabilités

Les lois de probabilité sont fondamentales pour la prise de décision. En comparant une observation à ce que prédit une loi, on peut juger si l'observation est "normale" ou "exceptionnelle".

  • Seuils de probabilité : On peut fixer un seuil (par exemple, 5% ou 1%) pour considérer qu'un événement est "rare". Si la probabilité d'observer un certain événement est inférieure à ce seuil, on pourra remettre en question l'hypothèse de départ (par exemple, que la machine fonctionne correctement).

  • Intervalles de fluctuation : Pour une loi binomiale, on peut construire un intervalle qui contient, avec une forte probabilité (par exemple 95% ou 99%), le nombre de succès attendu. Si une observation tombe en dehors de cet intervalle, on a des raisons de douter du modèle.

    • Un intervalle de fluctuation à 95% pour une loi binomiale B(n,p)B(n,p) est un intervalle [a,b][a, b] tel que P(Xa1)0.025P(X \le a-1) \le 0.025 et P(Xb)0.975P(X \le b) \ge 0.975.
    • Ces intervalles sont utilisés pour des tests d'hypothèses (introduction au concept) : on pose une hypothèse (par exemple, p=0.05p=0.05), on calcule l'intervalle de fluctuation, et si l'observation est en dehors, on rejette l'hypothèse.

Exemple (suite des ampoules) : Si on observe 5 ampoules défectueuses dans l'échantillon de 20, est-ce que cela remet en question le taux de 5% ? P(X=5)P(X=5) pour B(20,0.05)B(20, 0.05) est très faible. E(X)=1E(X)=1. On s'attend à 1 défectueuse. Observer 5 est déjà assez éloigné de l'espérance. En calculant P(X5)P(X \ge 5) avec la calculatrice : 1P(X4)10.9974=0.00261 - P(X \le 4) \approx 1 - 0.9974 = 0.0026. Cette probabilité (0.26%) est très faible. Si on a un seuil de 5%, on pourrait conclure que l'hypothèse que le taux de défectuosité est de 5% est probablement fausse, et que la production a un problème. C'est le principe du risque d'erreur : on prend une décision avec un certain risque de se tromper.

Utilisation des outils numériques

Les calculs de probabilités, d'espérance et de variance peuvent être complexes, surtout pour la loi binomiale avec de grandes valeurs de nn. Les outils numériques sont indispensables :

  • Calculatrices graphiques (comme celles de Texas Instruments ou Casio) : Elles intègrent des fonctions spécifiques pour les lois binomiales (binompdf, binomcdf) qui calculent rapidement les probabilités.
  • Logiciels de tableur (Excel, LibreOffice Calc) : Ils ont des fonctions équivalentes (LOI.BINOMIALE.N). Ils sont également utiles pour créer des tableaux de lois et des représentations graphiques.
  • Logiciels de statistiques (R, Python avec NumPy/SciPy) : Permettent des calculs plus avancés, des simulations et des visualisations complexes.

La simulation d'expériences aléatoires est aussi un excellent moyen de comprendre ces lois. En simulant un grand nombre de fois une expérience (par exemple, 10000 lancers de 10 pièces), on peut observer que les fréquences des succès se rapprochent des probabilités théoriques de la loi binomiale. Cela renforce l'interprétation des paramètres et la validité du modèle.

La représentation graphique des lois (diagramme en bâtons) aide à visualiser la distribution des probabilités et à comprendre la forme de la loi. Pour la loi binomiale, on observe souvent une forme de "cloche" qui devient plus symétrique à mesure que nn augmente.

En maîtrisant ces concepts et outils, vous serez bien préparé pour aborder des problèmes de probabilité plus complexes et pour utiliser les statistiques dans de nombreux domaines.

Après la lecture

Passe à la pratique avec deux blocs bien visibles

Une fois le cours lu, ouvre soit le quiz pour vérifier la compréhension, soit les flashcards pour mémoriser les idées importantes. Les deux s'ouvrent dans une fenêtre dédiée.

Quiz + Flashcards

Suite naturelle

Tu veux aller plus loin que l'article ?

Retrouve le même chapitre dans Wilo avec la suite des questions, la répétition espacée, les corrigés complets et une progression suivie dans le temps.