Éducation nationale françaiseOption Mathématiques complémentairesTerminale générale17 min de lecture

Les lois a densite

Une version article du chapitre pour comprendre l'essentiel rapidement, vérifier si le niveau correspond, puis basculer vers Wilo pour la pratique guidée et le suivi.

Lecture

5 chapitres

Un parcours éditorialisé et navigable.

Pratique

12 questions

Quiz et cartes mémoire à ouvrir après la lecture.

Objectif

Terminale générale

Format rapide pour vérifier si le chapitre correspond.

Chapitre 1

Introduction aux variables aléatoires continues et fonctions de densité

Variables aléatoires discrètes vs. continues

Une variable aléatoire (v.a.) est une fonction qui associe un nombre à chaque issue d'une expérience aléatoire.

  • Variables aléatoires discrètes : Elles ne peuvent prendre qu'un nombre fini ou un nombre infini dénombrable de valeurs. Pensez au nombre de faces obtenues en lançant une pièce 10 fois (0, 1, 2, ..., 10) ou au nombre d'appels reçus par un centre d'appels en une heure. Pour une v.a. discrète XX, on peut calculer la probabilité P(X=k)P(X=k) pour chaque valeur kk.

  • Variables aléatoires continues : Elles peuvent prendre n'importe quelle valeur dans un intervalle de nombres réels. On les utilise pour modéliser des grandeurs mesurables.

    • Exemples de situations continues :
      • La taille d'une personne.
      • Le temps d'attente à un guichet.
      • La température d'un four.
      • La durée de vie d'un composant électronique.
    • La différence fondamentale avec le discret est que pour une variable aléatoire continue XX, la probabilité qu'elle prenne une valeur exacte est toujours nulle : ==P(X=a)=0P(X=a) = 0== pour tout nombre aa. Pourquoi ? Imaginez que vous mesurez une taille. La probabilité qu'une personne mesure exactement 1,7500000... m est quasiment nulle, car il y a une infinité de valeurs possibles autour de 1,75 m (1,750001, 1,749999, etc.). On ne peut parler que de probabilités sur des intervalles, par exemple P(1,70X1,80)P(1,70 \le X \le 1,80).

Notion de fonction de densité de probabilité

Puisque P(X=a)=0P(X=a)=0 pour une v.a. continue, nous ne pouvons pas utiliser la même approche que pour les v.a. discrètes (où l'on listait les probabilités de chaque valeur). Pour les v.a. continues, nous utilisons une fonction de densité de probabilité, souvent notée ff.

  • Définition et propriétés d'une fonction de densité : Une fonction ff est une fonction de densité de probabilité pour une variable aléatoire continue XX si elle satisfait les conditions suivantes :

    1. Pour tout xRx \in \mathbb{R}, f(x)0f(x) \ge 0. (La densité ne peut pas être négative, comme une probabilité).
    2. L'aire totale sous la courbe de ff est égale à 1. C'est la condition de normalisation : +f(x)dx=1\int_{-\infty}^{+\infty} f(x) \,dx = 1 (Ceci représente la somme de toutes les probabilités possibles, qui doit être égale à 100%).
  • Interprétation graphique (aire sous la courbe) : Contrairement aux v.a. discrètes où les probabilités sont représentées par des bâtons, pour les v.a. continues, la probabilité qu'une variable XX prenne une valeur dans un intervalle [a,b][a, b] est donnée par l'aire sous la courbe de la fonction de densité ff entre aa et bb.

Calcul de probabilités avec une fonction de densité

  • Probabilité comme aire sous la courbe : Pour une v.a. continue XX de fonction de densité ff, la probabilité que XX appartienne à un intervalle [a,b][a, b] est donnée par : P(aXb)=abf(x)dxP(a \le X \le b) = \int_{a}^{b} f(x) \,dx Cette intégrale représente l'aire de la région délimitée par la courbe de ff, l'axe des abscisses et les droites verticales x=ax=a et x=bx=b.

  • Utilisation de l'intégrale définie : Le calcul de probabilités avec une fonction de densité se ramène donc au calcul d'intégrales. Vous devrez maîtriser la recherche de primitives pour effectuer ces calculs.

  • P(X=a)=0P(X=a) = 0 pour une variable continue : Comme mentionné précédemment, la probabilité qu'une v.a. continue prenne une valeur exacte est nulle. Mathématiquement, cela se voit car aaf(x)dx=0\int_{a}^{a} f(x) \,dx = 0. Cela implique aussi que pour une v.a. continue, ==P(aXb)=P(a<Xb)=P(aX<b)=P(a<X<b)P(a \le X \le b) = P(a < X \le b) = P(a \le X < b) = P(a < X < b)==. Les bornes strictes ou larges ne changent pas le résultat.

Chapitre 2

La loi uniforme sur un intervalle [a, b]

Définition et propriétés de la loi uniforme

Une variable aléatoire XX suit une loi uniforme sur un intervalle [a,b][a, b] (noté XU([a,b])X \sim \mathcal{U}([a,b])) si sa fonction de densité ff est constante sur cet intervalle et nulle en dehors.

  • Fonction de densité de la loi uniforme : f(x)={1basi x[a,b]0sinonf(x) = \begin{cases} \frac{1}{b-a} & \text{si } x \in [a, b] \\ 0 & \text{sinon} \end{cases} Vérifions la condition de normalisation : +f(x)dx=ab1badx=[1bax]ab=1ba(ba)=1\int_{-\infty}^{+\infty} f(x) \,dx = \int_{a}^{b} \frac{1}{b-a} \,dx = \left[ \frac{1}{b-a}x \right]_{a}^{b} = \frac{1}{b-a}(b-a) = 1. La fonction est bien une densité.

  • Interprétation : probabilité égale sur des intervalles de même longueur : Cette densité constante signifie que la probabilité que XX tombe dans un sous-intervalle de [a,b][a,b] est directement proportionnelle à la longueur de cet intervalle. Si deux sous-intervalles ont la même longueur, ils ont la même probabilité. Toutes les valeurs de l'intervalle [a,b][a,b] ont la même "chance" d'être tirées.

  • Paramètres aa et bb : L'intervalle [a,b][a,b] définit entièrement la loi uniforme. aa est la borne inférieure et bb est la borne supérieure.

Calcul de probabilités avec la loi uniforme

Pour calculer P(cXd)P(c \le X \le d) avec acdba \le c \le d \le b : P(cXd)=cd1badx=[1bax]cd=1ba(dc)=dcbaP(c \le X \le d) = \int_{c}^{d} \frac{1}{b-a} \,dx = \left[ \frac{1}{b-a}x \right]_{c}^{d} = \frac{1}{b-a}(d-c) = \frac{d-c}{b-a} C'est simplement la longueur de l'intervalle [c,d][c,d] divisée par la longueur de l'intervalle total [a,b][a,b].

  • Espérance E(X)E(X) (moyenne) : L'espérance représente la valeur moyenne que prend la variable aléatoire. Pour une loi uniforme, c'est le milieu de l'intervalle : E(X)=abxf(x)dx=abxbadx=[x22(ba)]ab=b2a22(ba)=(ba)(b+a)2(ba)=a+b2E(X) = \int_{a}^{b} x f(x) \,dx = \int_{a}^{b} \frac{x}{b-a} \,dx = \left[ \frac{x^2}{2(b-a)} \right]_{a}^{b} = \frac{b^2-a^2}{2(b-a)} = \frac{(b-a)(b+a)}{2(b-a)} = \frac{a+b}{2}

  • Variance V(X)V(X) : La variance mesure la dispersion des valeurs autour de l'espérance. V(X)=E(X2)(E(X))2V(X) = E(X^2) - (E(X))^2 E(X2)=abx2f(x)dx=abx2badx=[x33(ba)]ab=b3a33(ba)=(ba)(b2+ab+a2)3(ba)=a2+ab+b23E(X^2) = \int_{a}^{b} x^2 f(x) \,dx = \int_{a}^{b} \frac{x^2}{b-a} \,dx = \left[ \frac{x^3}{3(b-a)} \right]_{a}^{b} = \frac{b^3-a^3}{3(b-a)} = \frac{(b-a)(b^2+ab+a^2)}{3(b-a)} = \frac{a^2+ab+b^2}{3} Donc, la variance est : V(X)=a2+ab+b23(a+b2)2=4(a2+ab+b2)3(a2+2ab+b2)12=4a2+4ab+4b23a26ab3b212=a22ab+b212=(ba)212V(X) = \frac{a^2+ab+b^2}{3} - \left(\frac{a+b}{2}\right)^2 = \frac{4(a^2+ab+b^2) - 3(a^2+2ab+b^2)}{12} = \frac{4a^2+4ab+4b^2 - 3a^2-6ab-3b^2}{12} = \frac{a^2-2ab+b^2}{12} = \frac{(b-a)^2}{12}

Applications concrètes de la loi uniforme

  • Modélisation de temps d'attente : Si le temps d'attente pour un bus est compris entre 0 et 10 minutes et qu'il n'y a pas d'horaire fixe, on peut le modéliser par une loi U([0,10])\mathcal{U}([0,10]).
  • Génération de nombres aléatoires : De nombreux générateurs de nombres aléatoires produisent des nombres suivant une loi uniforme sur [0,1][0,1] (ou un autre intervalle).
  • Exemples pratiques : Un appareil qui tombe en panne de manière imprévisible entre 1 an et 5 ans de service, sans vieillissement particulier. Le temps de panne pourrait être modélisé par une loi uniforme sur [1,5][1,5].

Chapitre 3

La loi exponentielle

Définition et propriétés de la loi exponentielle

Une variable aléatoire XX suit une loi exponentielle de paramètre λ\lambda (lambda > 0) si sa fonction de densité ff est :

  • Fonction de densité de la loi exponentielle : f(x)={λeλxsi x00sinonf(x) = \begin{cases} \lambda e^{-\lambda x} & \text{si } x \ge 0 \\ 0 & \text{sinon} \end{cases} Vérifions la condition de normalisation : 0+λeλxdx=[eλx]0+=(0e0)=(1)=1\int_{0}^{+\infty} \lambda e^{-\lambda x} \,dx = \left[ -e^{-\lambda x} \right]_{0}^{+\infty} = -(0 - e^0) = -(-1) = 1. La fonction est bien une densité.

  • Paramètre λ\lambda : λ\lambda est un paramètre positif qui représente le "taux" d'occurrence de l'événement ou l'inverse de la durée de vie moyenne. Plus λ\lambda est grand, plus la durée de vie moyenne est courte (et inversement).

  • Lien avec la loi de Poisson (sans mémoire) : La loi exponentielle est la loi de probabilité du temps d'attente entre deux événements successifs dans un processus de Poisson. La propriété "sans mémoire" est une caractéristique clé de cette loi.

Calcul de probabilités et caractéristiques

  • Calcul de P(Xt)P(X \le t) (fonction de répartition) : La fonction de répartition F(t)F(t) donne la probabilité que la variable prenne une valeur inférieure ou égale à tt. F(t)=P(Xt)=0tλeλxdx=[eλx]0t=eλt(e0)=1eλtpour t0F(t) = P(X \le t) = \int_{0}^{t} \lambda e^{-\lambda x} \,dx = \left[ -e^{-\lambda x} \right]_{0}^{t} = -e^{-\lambda t} - (-e^0) = 1 - e^{-\lambda t} \quad \text{pour } t \ge 0 Pour t<0t < 0, F(t)=0F(t)=0.

  • Calcul de P(X>t)P(X > t) : C'est la probabilité de survie, souvent notée Fˉ(t)\bar{F}(t). P(X>t)=1P(Xt)=1(1eλt)=eλtpour t0P(X > t) = 1 - P(X \le t) = 1 - (1 - e^{-\lambda t}) = e^{-\lambda t} \quad \text{pour } t \ge 0

  • Espérance E(X)E(X) : E(X)=0+xλeλxdx=1λE(X) = \int_{0}^{+\infty} x \lambda e^{-\lambda x} \,dx = \frac{1}{\lambda} L'espérance est l'inverse du paramètre λ\lambda. Si λ=0.01\lambda = 0.01, l'espérance est 100.

  • Variance V(X)V(X) : V(X)=1λ2V(X) = \frac{1}{\lambda^2} L'écart-type est σ(X)=1λ\sigma(X) = \frac{1}{\lambda}.

Propriété d'absence de mémoire

C'est la propriété la plus distinctive de la loi exponentielle. Elle signifie que la probabilité qu'un événement se produise dans le futur ne dépend pas du temps déjà écoulé sans que l'événement ne se soit produit.

  • Définition de la propriété sans mémoire : Pour s>0s > 0 et t>0t > 0, P(X>s+tX>s)=P(X>t)P(X > s+t \mid X > s) = P(X > t) Interprétation : Si un composant a déjà fonctionné pendant ss heures sans panne, la probabilité qu'il fonctionne encore tt heures supplémentaires est la même que s'il était neuf. Il n'y a pas de "vieillissement".

  • Démonstration rapide : P(X>s+tX>s)=P(X>s+t et X>s)P(X>s)P(X > s+t \mid X > s) = \frac{P(X > s+t \text{ et } X > s)}{P(X > s)} Puisque X>s+tX > s+t implique X>sX > s, l'événement "X>s+t et X>sX > s+t \text{ et } X > s" est simplement "X>s+tX > s+t". Donc P(X>s+tX>s)=P(X>s+t)P(X>s)=eλ(s+t)eλs=eλseλteλs=eλt=P(X>t)P(X > s+t \mid X > s) = \frac{P(X > s+t)}{P(X > s)} = \frac{e^{-\lambda(s+t)}}{e^{-\lambda s}} = \frac{e^{-\lambda s} e^{-\lambda t}}{e^{-\lambda s}} = e^{-\lambda t} = P(X > t).

  • Applications (durée de vie, temps d'attente) : Cette propriété est cruciale pour modéliser la durée de vie de composants électroniques qui ne s'usent pas (ex: certains semi-conducteurs), ou le temps entre deux appels téléphoniques consécutifs à un standard.

Applications de la loi exponentielle

  • Modélisation de durées de vie : Durée de vie d'une ampoule, d'un composant électronique, d'un être vivant (dans certains modèles très simplifiés).
  • Temps entre deux événements (processus de Poisson) : Temps d'attente entre deux arrivées de clients à un comptoir, temps entre deux pannes d'une machine, temps entre deux désintégrations radioactives.
  • Fiabilité et maintenance : Aide à planifier la maintenance préventive ou à évaluer la fiabilité de systèmes.

Chapitre 4

La loi normale (ou de Gauss)

Définition et propriétés de la loi normale

Une variable aléatoire XX suit une loi normale (ou de Gauss) de paramètres μ\mu (moyenne) et σ2\sigma^2 (variance), notée XN(μ,σ2)X \sim \mathcal{N}(\mu, \sigma^2), si sa fonction de densité est :

  • Fonction de densité (courbe en cloche) : f(x)=1σ2πe12(xμσ)2pour xRf(x) = \frac{1}{\sigma\sqrt{2\pi}} e^{-\frac{1}{2}\left(\frac{x-\mu}{\sigma}\right)^2} \quad \text{pour } x \in \mathbb{R} Cette fonction est complexe, et vous n'aurez pas à calculer ses intégrales directement. Sa représentation graphique est la fameuse courbe en cloche, symétrique par rapport à μ\mu.

  • Paramètres μ\mu (moyenne) et σ\sigma (écart-type) :

    • μ\mu (mu) est l'espérance de la loi. C'est le centre de la courbe, là où la densité est maximale.
    • σ\sigma (sigma) est l'écart-type. Il mesure la dispersion des données autour de la moyenne. Plus σ\sigma est petit, plus la courbe est "étroite" et "pointue". Plus σ\sigma est grand, plus la courbe est "étalée" et "plate".
  • Symétrie et forme de la courbe : La courbe est symétrique par rapport à la droite verticale x=μx=\mu. Les points d'inflexion (où la courbure change) se situent à μσ\mu - \sigma et μ+σ\mu + \sigma.

La loi normale centrée réduite N(0, 1)

Un cas particulier très important est la loi normale centrée réduite, notée N(0,1)\mathcal{N}(0, 1). C'est une loi normale avec une moyenne μ=0\mu = 0 et un écart-type σ=1\sigma = 1. Sa variable aléatoire est souvent notée ZZ.

  • Transformation d'une variable normale en variable centrée réduite : Si XN(μ,σ2)X \sim \mathcal{N}(\mu, \sigma^2), alors la variable ZZ définie par : Z=XμσZ = \frac{X - \mu}{\sigma} suit une loi normale centrée réduite N(0,1)\mathcal{N}(0, 1). Cette transformation est cruciale car elle permet de ramener n'importe quelle loi normale à la loi N(0,1)\mathcal{N}(0,1), pour laquelle des tables de valeurs sont disponibles.

  • Utilisation de la table de la loi normale centrée réduite : Historiquement, pour calculer des probabilités avec une loi normale, on utilisait des tables qui donnaient les valeurs de la fonction de répartition de la loi N(0,1)\mathcal{N}(0,1). Aujourd'hui, les calculatrices et logiciels font ces calculs directement.

  • Calcul de probabilités avec la fonction de répartition Φ\Phi : La fonction de répartition de la loi N(0,1)\mathcal{N}(0,1) est notée Φ(z)\Phi(z). Φ(z)=P(Zz)\Phi(z) = P(Z \le z) Pour toute valeur zz, Φ(z)\Phi(z) donne l'aire sous la courbe de la densité de N(0,1)\mathcal{N}(0,1) de -\infty à zz. Grâce à la symétrie, on a la propriété importante : Φ(z)=1Φ(z)\Phi(-z) = 1 - \Phi(z). Pour calculer P(Z>z)=1Φ(z)P(Z > z) = 1 - \Phi(z). Pour calculer P(z1Zz2)=Φ(z2)Φ(z1)P(z_1 \le Z \le z_2) = \Phi(z_2) - \Phi(z_1).

Calcul de probabilités avec une loi normale quelconque

Pour une variable XN(μ,σ2)X \sim \mathcal{N}(\mu, \sigma^2), on transforme la variable en une variable centrée réduite ZZ :

  • Standardisation (changement de variable) : Pour calculer P(Xx)P(X \le x), on écrit : P(Xx)=P(Xμσxμσ)=P(Zxμσ)=Φ(xμσ)P(X \le x) = P\left(\frac{X - \mu}{\sigma} \le \frac{x - \mu}{\sigma}\right) = P\left(Z \le \frac{x - \mu}{\sigma}\right) = \Phi\left(\frac{x - \mu}{\sigma}\right) De même pour un intervalle : P(x1Xx2)=P(x1μσZx2μσ)=Φ(x2μσ)Φ(x1μσ)P(x_1 \le X \le x_2) = P\left(\frac{x_1 - \mu}{\sigma} \le Z \le \frac{x_2 - \mu}{\sigma}\right) = \Phi\left(\frac{x_2 - \mu}{\sigma}\right) - \Phi\left(\frac{x_1 - \mu}{\sigma}\right)

  • Utilisation de la calculatrice ou du logiciel : Les calculatrices graphiques (comme la TI-83 Premium CE ou la Casio Graph 35+/90+) et les logiciels (GeoGebra, Python, R) disposent de fonctions intégrées pour calculer directement les probabilités d'une loi normale, sans passer par la centration réduction et la table. Il suffit de leur fournir μ\mu, σ\sigma et les bornes de l'intervalle.

  • Intervalles de confiance (règle des 68-95-99.7) : C'est une règle empirique très utile pour comprendre la dispersion des données autour de la moyenne pour une loi normale :

    • Environ 68% des valeurs se situent dans l'intervalle [μσ,μ+σ][\mu - \sigma, \mu + \sigma].
    • Environ 95% des valeurs se situent dans l'intervalle [μ2σ,μ+2σ][\mu - 2\sigma, \mu + 2\sigma].
    • Environ 99.7% des valeurs se situent dans l'intervalle [μ3σ,μ+3σ][\mu - 3\sigma, \mu + 3\sigma]. Ces pourcentages sont des approximations (les valeurs exactes sont 68.27%, 95.45%, 99.73%).

Applications de la loi normale

La loi normale est utilisée pour modéliser une grande variété de phénomènes :

  • Modélisation de phénomènes naturels (tailles, poids) : La taille des adultes dans une population, le poids des fruits d'une certaine espèce, le QI.
  • Mesures d'erreurs : Les erreurs de mesure lors d'expériences scientifiques sont souvent modélisées par une loi normale.
  • Statistiques inférentielles (échantillonnage) : Le théorème central limite stipule que la moyenne d'un grand nombre de variables aléatoires indépendantes et identiquement distribuées tend à suivre une loi normale, quelle que soit la loi d'origine des variables. C'est pourquoi la loi normale est fondamentale pour les tests d'hypothèses et les intervalles de confiance.

Chapitre 5

Utilisation des outils numériques et synthèse

Calculatrice et logiciels pour les lois à densité

  • Fonctions de densité et de répartition sur calculatrice : Familiarisez-vous avec les menus de votre calculatrice (souvent dans les sections "Probabilité" ou "Statistiques") pour les lois continues. Vous y trouverez des fonctions pour :
    • Calculer P(Xx)P(X \le x) ou P(x1Xx2)P(x_1 \le X \le x_2) pour les lois normales, uniformes et exponentielles.
    • Calculer des "quantiles" (valeur kk telle que P(Xk)=pP(X \le k) = p).
  • Calcul de probabilités et quantiles : Entraînez-vous à utiliser votre calculatrice pour résoudre les exercices.
  • Vérification des résultats : La calculatrice est un excellent outil pour vérifier vos calculs théoriques, surtout pour la loi normale où les intégrales sont complexes.

Choix de la loi de probabilité adaptée

Le choix de la bonne loi est crucial pour une modélisation pertinente.

  • Critères de choix (nature du phénomène, données) :
    • Loi uniforme : Toutes les valeurs d'un intervalle sont également probables. Absence d'information ou de tendance particulière.
    • Loi exponentielle : Modélisation de durées de vie sans vieillissement (absence de mémoire) ou temps d'attente entre événements rares. Le "temps" est le facteur clé.
    • Loi normale : Phénomènes résultant de la somme de nombreux facteurs aléatoires (taille, poids, erreurs de mesure). La distribution des données est souvent centrée autour d'une moyenne et symétrique.
  • Reconnaissance des situations types : Entraînez-vous à identifier les mots-clés dans les énoncés : "toutes les valeurs sont équiprobables" (uniforme), "durée de vie", "temps d'attente", "sans mémoire" (exponentielle), "répartition autour d'une moyenne", "taille", "poids", "mesure" (normale).
  • Limites des modèles : Aucun modèle n'est parfait. Il est important de comprendre que ces lois sont des approximations de la réalité. La normalité d'une distribution peut être testée (tests d'ajustement non au programme de Terminale).

Synthèse et révision des concepts clés

Un tableau comparatif peut être très utile pour réviser :

CaractéristiqueLoi Uniforme U([a,b])\mathcal{U}([a,b])Loi Exponentielle E(λ)\mathcal{E}(\lambda)Loi Normale N(μ,σ2)\mathcal{N}(\mu, \sigma^2)
Intervalle de définition[a,b][a,b][0,+[[0, +\infty[R\mathbb{R}
Fonction de densité f(x)f(x)1ba\frac{1}{b-a} sur [a,b][a,b]λeλx\lambda e^{-\lambda x} sur [0,+[[0, +\infty[1σ2πe12(xμσ)2\frac{1}{\sigma\sqrt{2\pi}} e^{-\frac{1}{2}(\frac{x-\mu}{\sigma})^2}
Espérance E(X)E(X)a+b2\frac{a+b}{2}1λ\frac{1}{\lambda}μ\mu
Variance V(X)V(X)(ba)212\frac{(b-a)^2}{12}1λ2\frac{1}{\lambda^2}σ2\sigma^2
Propriété cléÉquiprobabilité sur intervalles de même longueurAbsence de mémoireCourbe en cloche, symétrie, Règle 68-95-99.7
Calcul P(Xx)P(X \le x)xaba\frac{x-a}{b-a}1eλx1 - e^{-\lambda x}Φ(xμσ)\Phi(\frac{x-\mu}{\sigma}) (calculatrice)
  • Formules essentielles (espérance, variance) : Mémorisez les formules d'espérance et de variance pour chaque loi.
  • Méthodologie de résolution de problèmes :
    1. Identifier la loi : À partir de l'énoncé, déterminez quelle loi à densité est la plus appropriée (uniforme, exponentielle, normale).
    2. Identifier les paramètres : Déterminez les valeurs de a,ba, b pour uniforme, λ\lambda pour exponentielle, μ,σ\mu, \sigma pour normale.
    3. Reformuler la question en terme de probabilité : Ex: "probabilité que la durée soit supérieure à 5 ans" P(X>5)\rightarrow P(X > 5).
    4. Appliquer la formule ou utiliser la calculatrice : Calculez la probabilité ou la valeur demandée.
    5. Interpréter le résultat : Donnez du sens au nombre obtenu dans le contexte de l'exercice.

La maîtrise de ces lois est une compétence essentielle pour comprendre de nombreux phénomènes aléatoires et pour aborder les statistiques inférentielles plus avancées.

Après la lecture

Passe à la pratique avec deux blocs bien visibles

Une fois le cours lu, ouvre soit le quiz pour vérifier la compréhension, soit les flashcards pour mémoriser les idées importantes. Les deux s'ouvrent dans une fenêtre dédiée.

Quiz + Flashcards

Suite naturelle

Tu veux aller plus loin que l'article ?

Retrouve le même chapitre dans Wilo avec la suite des questions, la répétition espacée, les corrigés complets et une progression suivie dans le temps.