Éducation nationale françaiseSpécialité MathématiquesTerminale générale18 min de lecture

Probabilités : lois continues

Une version article du chapitre pour comprendre l'essentiel rapidement, vérifier si le niveau correspond, puis basculer vers Wilo pour la pratique guidée et le suivi.

Lecture

5 chapitres

Un parcours éditorialisé et navigable.

Pratique

12 questions

Quiz et cartes mémoire à ouvrir après la lecture.

Objectif

Terminale générale

Format rapide pour vérifier si le chapitre correspond.

Chapitre 1

Introduction aux variables aléatoires continues

Définition et propriétés d'une variable aléatoire continue

En probabilités, nous avons déjà rencontré les variables aléatoires discrètes. Une variable aléatoire discrète prend un nombre fini ou dénombrable de valeurs isolées (par exemple, le nombre de faces obtenues en lançant une pièce 10 fois).

Une variable aléatoire continue, à l'inverse, peut prendre n'importe quelle valeur dans un intervalle donné (ou sur R\mathbb{R}). On ne peut pas "compter" les valeurs qu'elle peut prendre. Exemples : la durée de vie d'une ampoule, la taille d'une personne, le temps d'attente à un guichet.

Propriétés fondamentales :

  • Une variable aléatoire continue XX prend ses valeurs dans un intervalle de R\mathbb{R} (par exemple [0;+[[0; +\infty[ ou [a;b][a; b]).
  • La probabilité qu'une variable aléatoire continue prenne une valeur exacte est toujours nulle : ==P(X=x)=0P(X = x) = 0== pour tout xx.
    • Cela peut sembler contre-intuitif, mais imaginez choisir un nombre au hasard entre 0 et 1. La probabilité de tomber exactement sur 0,5 est infiniment petite, donc nulle.
    • Cette propriété implique que P(aXb)=P(a<Xb)=P(aX<b)=P(a<X<b)P(a \le X \le b) = P(a < X \le b) = P(a \le X < b) = P(a < X < b). Les inégalités strictes ou larges n'ont pas d'impact sur le calcul des probabilités pour une variable continue.

Fonction de densité de probabilité

Puisque P(X=x)=0P(X=x)=0, nous ne pouvons pas utiliser la même méthode que pour les variables discrètes (somme des probabilités P(X=xi)P(X=x_i)). Pour les variables continues, nous utilisons une fonction de densité de probabilité, notée ff.

Définition : Une fonction ff est une fonction de densité de probabilité pour une variable aléatoire continue XX si elle vérifie les trois conditions suivantes :

  1. Positivité : Pour tout xRx \in \mathbb{R}, f(x)0f(x) \ge 0. (Une probabilité ne peut pas être négative).
  2. Intégrale sur l'intervalle : L'aire totale sous la courbe de ff sur l'intervalle où XX prend ses valeurs est égale à 1. Si XX prend ses valeurs sur [a;b][a; b], alors abf(x)dx=1\int_a^b f(x) dx = 1. Si XX prend ses valeurs sur R\mathbb{R}, alors +f(x)dx=1\int_{-\infty}^{+\infty} f(x) dx = 1. (La somme de toutes les probabilités doit faire 1).
  3. Continuité : La fonction ff est continue sur son intervalle de définition, sauf éventuellement en un nombre fini de points.

Interprétation graphique : La courbe représentative d'une fonction de densité est toujours au-dessus de l'axe des abscisses. L'aire totale entre la courbe et l'axe des abscisses est de 1. La hauteur de la fonction de densité f(x)f(x) en un point xx n'est pas une probabilité. C'est la surface sous la courbe qui représente une probabilité.

Calcul de probabilités avec une fonction de densité

Pour une variable aléatoire continue XX de fonction de densité ff, la probabilité que XX prenne une valeur dans un intervalle [a;b][a; b] est donnée par l'aire sous la courbe de ff entre aa et bb.

Calcul de P(aXb)P(a \le X \le b) : La probabilité P(aXb)P(a \le X \le b) est donnée par l'intégrale définie de ff entre aa et bb : P(aXb)=abf(x)dxP(a \le X \le b) = \int_a^b f(x) dxFF est une primitive de ff, alors P(aXb)=F(b)F(a)P(a \le X \le b) = F(b) - F(a).

Rappel important : L'intégrale représente l'aire sous la courbe. C'est pourquoi la condition +f(x)dx=1\int_{-\infty}^{+\infty} f(x) dx = 1 est cruciale : elle garantit que la somme de toutes les probabilités est bien 1.

Exemple : Soit une fonction de densité f(x)=2xf(x) = 2x pour x[0;1]x \in [0; 1] et f(x)=0f(x) = 0 ailleurs. Pour calculer P(0.2X0.5)P(0.2 \le X \le 0.5), on calcule l'intégrale : P(0.2X0.5)=0.20.52xdx=[x2]0.20.5=(0.5)2(0.2)2=0.250.04=0.21P(0.2 \le X \le 0.5) = \int_{0.2}^{0.5} 2x dx = [x^2]_{0.2}^{0.5} = (0.5)^2 - (0.2)^2 = 0.25 - 0.04 = 0.21.

Chapitre 2

Loi uniforme sur un intervalle

Définition et fonction de densité de la loi uniforme

La loi uniforme est la plus simple des lois continues. Elle modélise une situation où toutes les valeurs possibles dans un intervalle donné ont la même "chance" d'être observées. C'est le cas par exemple d'un temps d'attente dont on sait qu'il est entre 0 et 10 minutes, sans information supplémentaire.

Définition : Une variable aléatoire continue XX suit une loi uniforme sur l'intervalle [a;b][a; b] (noté XU([a;b])X \sim \mathcal{U}([a; b])) si sa fonction de densité de probabilité ff est constante sur cet intervalle et nulle ailleurs.

La fonction de densité est donnée par : f(x)={1basi x[a;b]0sinonf(x) = \begin{cases} \frac{1}{b-a} & \text{si } x \in [a; b] \\ 0 & \text{sinon} \end{cases} Les paramètres de cette loi sont aa et bb, les bornes de l'intervalle. La fonction de densité est constante, d'où le terme "uniforme". La hauteur de ce "rectangle de probabilité" est 1/(ba)1/(b-a) pour que l'aire totale soit 1 (base bab-a multipliée par hauteur 1/(ba)1/(b-a)).

Calcul de probabilités pour une loi uniforme

Le calcul des probabilités avec une loi uniforme est très simple car il revient à calculer l'aire d'un rectangle.

Pour acdba \le c \le d \le b, la probabilité P(cXd)P(c \le X \le d) est donnée par : P(cXd)=cd1badx=[xba]cd=dbacba=dcbaP(c \le X \le d) = \int_c^d \frac{1}{b-a} dx = \left[ \frac{x}{b-a} \right]_c^d = \frac{d}{b-a} - \frac{c}{b-a} = \frac{d-c}{b-a}

Interprétation géométrique : C'est la longueur de l'intervalle [c;d][c; d] divisée par la longueur totale de l'intervalle [a;b][a; b]. Exemple concret : Un bus passe toutes les 15 minutes. Le temps d'attente XX d'un passager arrivant à un moment aléatoire suit une loi U([0;15])\mathcal{U}([0; 15]). Quelle est la probabilité d'attendre entre 5 et 10 minutes ? P(5X10)=105150=515=13P(5 \le X \le 10) = \frac{10-5}{15-0} = \frac{5}{15} = \frac{1}{3}.

Espérance et variance de la loi uniforme

L'espérance E(X)E(X) d'une variable aléatoire continue représente sa moyenne, la valeur "attendue" ou "centrale". Pour XU([a;b])X \sim \mathcal{U}([a; b]) : E(X)=a+b2E(X) = \frac{a+b}{2} C'est intuitivement le milieu de l'intervalle [a;b][a; b].

La variance V(X)V(X) mesure la dispersion des valeurs autour de l'espérance. Plus la variance est grande, plus les valeurs sont étalées. Pour XU([a;b])X \sim \mathcal{U}([a; b]) : V(X)=(ba)212V(X) = \frac{(b-a)^2}{12} L'écart-type est σ(X)=V(X)\sigma(X) = \sqrt{V(X)}. Plus l'intervalle [a;b][a; b] est grand, plus (ba)(b-a) est grand, et donc plus la variance est grande, ce qui est logique.

Chapitre 3

Loi exponentielle

Définition et fonction de densité de la loi exponentielle

La loi exponentielle est souvent utilisée pour modéliser des durées de vie d'objets ou des temps d'attente entre deux événements successifs, notamment lorsque l'objet ou le phénomène ne "vieillit" pas (ne s'use pas avec le temps).

Définition : Une variable aléatoire continue XX suit une loi exponentielle de paramètre λ>0\lambda > 0 (notée XE(λ)X \sim \mathcal{E}(\lambda)) si sa fonction de densité de probabilité est donnée par : f(x)={λeλxsi x00si x<0f(x) = \begin{cases} \lambda e^{-\lambda x} & \text{si } x \ge 0 \\ 0 & \text{si } x < 0 \end{cases} Le paramètre λ\lambda (lambda) est un taux. Plus λ\lambda est grand, plus la durée de vie moyenne est courte. La fonction de densité est décroissante : la probabilité d'une durée de vie courte est plus élevée que celle d'une durée de vie longue.

Calcul de probabilités pour une loi exponentielle

Le calcul des probabilités se fait en utilisant la fonction de répartition F(t)=P(Xt)F(t) = P(X \le t). Pour XE(λ)X \sim \mathcal{E}(\lambda), la fonction de répartition est : F(t)=0tλeλxdx=[eλx]0t=eλt(e0)=1eλtF(t) = \int_0^t \lambda e^{-\lambda x} dx = \left[ -e^{-\lambda x} \right]_0^t = -e^{-\lambda t} - (-e^0) = 1 - e^{-\lambda t} Donc, pour t0t \ge 0 : P(Xt)=1eλtP(X \le t) = 1 - e^{-\lambda t} A partir de là, on peut calculer d'autres probabilités :

  • P(X>t)=1P(Xt)=1(1eλt)=eλtP(X > t) = 1 - P(X \le t) = 1 - (1 - e^{-\lambda t}) = e^{-\lambda t}
  • P(t1Xt2)=F(t2)F(t1)=(1eλt2)(1eλt1)=eλt1eλt2P(t_1 \le X \le t_2) = F(t_2) - F(t_1) = (1 - e^{-\lambda t_2}) - (1 - e^{-\lambda t_1}) = e^{-\lambda t_1} - e^{-\lambda t_2}

Exemple : La durée de vie (en heures) d'un composant électronique suit une loi exponentielle de paramètre λ=0.001\lambda = 0.001. Quelle est la probabilité que le composant dure moins de 1000 heures ? P(X1000)=1e0.001×1000=1e110.36790.6321P(X \le 1000) = 1 - e^{-0.001 \times 1000} = 1 - e^{-1} \approx 1 - 0.3679 \approx 0.6321.

Propriété d'absence de mémoire

La loi exponentielle possède une propriété très particulière et importante : l'absence de mémoire. Cette propriété signifie que la probabilité qu'un événement se produise dans le futur ne dépend pas de son passé. Définition : Pour XE(λ)X \sim \mathcal{E}(\lambda), on a pour tout s,t0s, t \ge 0 : P(X>t+sX>t)=P(X>s)P(X > t+s \mid X > t) = P(X > s) En d'autres termes, si un composant a déjà fonctionné pendant tt heures, la probabilité qu'il fonctionne ss heures supplémentaires est la même que la probabilité qu'un composant neuf fonctionne ss heures. Il ne "vieillit" pas. C'est pour cela qu'elle est utilisée pour modéliser des durées de vie sans usure (par exemple, la durée de vie d'un atome radioactif, ou le temps d'attente avant le prochain client dans un système stable).

Espérance et variance de la loi exponentielle

Pour XE(λ)X \sim \mathcal{E}(\lambda) : L'espérance est : E(X)=1λE(X) = \frac{1}{\lambda} C'est la durée de vie moyenne attendue. Si λ\lambda est grand, E(X)E(X) est petit (durée de vie courte). La variance est : V(X)=1λ2V(X) = \frac{1}{\lambda^2} L'écart-type est σ(X)=1λ\sigma(X) = \frac{1}{\lambda}. L'espérance et l'écart-type sont égaux pour la loi exponentielle, ce qui indique une grande dispersion des durées de vie autour de la moyenne.

Chapitre 4

Loi normale (ou de Gauss)

Introduction et propriétés de la loi normale

La loi normale, aussi appelée loi de Gauss, est sans doute la loi de probabilité la plus importante et la plus utilisée en statistiques. Elle modélise de nombreux phénomènes naturels où les valeurs se regroupent autour d'une moyenne, avec une dispersion symétrique. Exemples : la taille des individus, le QI, les erreurs de mesure, les résultats à un examen.

Définition : Une variable aléatoire continue XX suit une loi normale de paramètres μ\mu et σ2\sigma^2 (notée XN(μ,σ2)X \sim \mathcal{N}(\mu, \sigma^2)) si sa fonction de densité de probabilité est donnée par : f(x)=1σ2πe12(xμσ)2f(x) = \frac{1}{\sigma \sqrt{2\pi}} e^{-\frac{1}{2}\left(\frac{x-\mu}{\sigma}\right)^2}μ\mu est l'espérance (la moyenne) et σ\sigma est l'écart-type (σ2\sigma^2 est la variance). La courbe représentative de cette fonction est la célèbre "courbe en cloche" ou gaussienne.

Propriétés de la courbe en cloche :

  • Elle est ==symétrique par rapport à la droite d'équation x=μx = \mu==. Le mode, la médiane et la moyenne sont tous égaux à μ\mu.
  • Elle est en forme de cloche, avec un maximum en x=μx = \mu.
  • Plus σ\sigma est petit, plus la courbe est "pointue" et resserrée autour de μ\mu (moins de dispersion).
  • Plus σ\sigma est grand, plus la courbe est "aplatie" et étalée (plus de dispersion).
  • L'aire totale sous la courbe est égale à 1.

La loi normale centrée réduite $\mathcal{N}(0, 1)$

Pour faciliter les calculs de probabilités, on utilise une forme particulière de la loi normale : la loi normale centrée réduite. Une variable aléatoire ZZ suit une loi normale centrée réduite si ZN(0,1)Z \sim \mathcal{N}(0, 1). Ses paramètres sont μ=0\mu = 0 et σ=1\sigma = 1.

Toute variable aléatoire normale XN(μ,σ2)X \sim \mathcal{N}(\mu, \sigma^2) peut être transformée en une variable centrée réduite ZZ par la formule de standardisation : Z=XμσZ = \frac{X - \mu}{\sigma} Cette transformation est essentielle car elle permet de ramener tous les calculs de probabilités pour n'importe quelle loi normale à ceux de la loi N(0,1)\mathcal{N}(0, 1). Pour calculer P(Xa)P(X \le a), on calcule P(Zaμσ)P\left(Z \le \frac{a-\mu}{\sigma}\right). Les probabilités pour la loi N(0,1)\mathcal{N}(0, 1) sont données par la fonction de répartition Φ(z)\Phi(z), qui est P(Zz)P(Z \le z). Ces valeurs sont généralement obtenues à l'aide d'une calculatrice (mode "loi normale" ou "NormalCDF") ou de tables statistiques.

Propriétés de Φ(z)\Phi(z) :

  • Φ(0)=0.5\Phi(0) = 0.5 (par symétrie)
  • Φ(z)=1Φ(z)\Phi(-z) = 1 - \Phi(z) (par symétrie)

Calcul de probabilités avec la loi normale

Les calculs de probabilités pour une loi normale XN(μ,σ2)X \sim \mathcal{N}(\mu, \sigma^2) se font en utilisant la calculatrice ou la table de la loi normale centrée réduite.

  1. Calcul de P(Xa)P(X \le a) : P(Xa)=P(Zaμσ)=Φ(aμσ)P(X \le a) = P\left(Z \le \frac{a-\mu}{\sigma}\right) = \Phi\left(\frac{a-\mu}{\sigma}\right). Directement avec la calculatrice : fonction "NormalCDF" ou équivalent.

  2. Calcul de P(Xa)P(X \ge a) : P(Xa)=1P(X<a)=1P(Xa)=1Φ(aμσ)P(X \ge a) = 1 - P(X < a) = 1 - P(X \le a) = 1 - \Phi\left(\frac{a-\mu}{\sigma}\right).

  3. Calcul de P(aXb)P(a \le X \le b) : P(aXb)=P(Xb)P(Xa)=Φ(bμσ)Φ(aμσ)P(a \le X \le b) = P(X \le b) - P(X \le a) = \Phi\left(\frac{b-\mu}{\sigma}\right) - \Phi\left(\frac{a-\mu}{\sigma}\right).

Utilisation de la symétrie : Si vous cherchez P(Xa)P(X \ge a) et que la calculatrice ne donne que P(Xa)P(X \le a), utilisez 1P(Xa)1 - P(X \le a). Si vous avez besoin de Φ(z)\Phi(-z), utilisez 1Φ(z)1 - \Phi(z).

Exemple : Soit XN(10,4)X \sim \mathcal{N}(10, 4) (donc μ=10\mu=10 et σ=4=2\sigma=\sqrt{4}=2). Calculer P(8X12)P(8 \le X \le 12). On standardise les bornes : Z1=8102=1Z_1 = \frac{8-10}{2} = -1 Z2=12102=1Z_2 = \frac{12-10}{2} = 1 P(8X12)=P(1Z1)=Φ(1)Φ(1)P(8 \le X \le 12) = P(-1 \le Z \le 1) = \Phi(1) - \Phi(-1). Avec la symétrie, Φ(1)=1Φ(1)\Phi(-1) = 1 - \Phi(1). Donc P(1Z1)=Φ(1)(1Φ(1))=2Φ(1)1P(-1 \le Z \le 1) = \Phi(1) - (1 - \Phi(1)) = 2\Phi(1) - 1. Avec une calculatrice, Φ(1)0.8413\Phi(1) \approx 0.8413. Donc P(8X12)2×0.84131=1.68261=0.6826P(8 \le X \le 12) \approx 2 \times 0.8413 - 1 = 1.6826 - 1 = 0.6826. Cela signifie qu'environ 68,26% des valeurs se situent entre 8 et 12 (soit entre μσ\mu-\sigma et μ+σ\mu+\sigma).

Intervalles de fluctuation et d'estimation

La loi normale est fondamentale pour construire des intervalles de fluctuation et d'estimation, très utilisés en statistiques inférentielles.

Un intervalle de fluctuation est un intervalle centré sur la moyenne théorique μ\mu qui contient une certaine proportion des valeurs de XX avec une probabilité donnée. Les intervalles les plus connus pour une loi normale sont :

  • P(μσXμ+σ)0.6827P(\mu - \sigma \le X \le \mu + \sigma) \approx 0.6827 (environ 68% des valeurs se trouvent à moins d'un écart-type de la moyenne)
  • P(μ2σXμ+2σ)0.9545P(\mu - 2\sigma \le X \le \mu + 2\sigma) \approx 0.9545 (environ 95% des valeurs se trouvent à moins de deux écarts-types de la moyenne)
  • P(μ3σXμ+3σ)0.9973P(\mu - 3\sigma \le X \le \mu + 3\sigma) \approx 0.9973 (environ 99,7% des valeurs se trouvent à moins de trois écarts-types de la moyenne) C'est la fameuse règle des 3 sigmas.

L'intervalle de fluctuation à 95% est particulièrement important. Il est de la forme [μ1.96σ;μ+1.96σ][\mu - 1.96\sigma ; \mu + 1.96\sigma]. En effet, P(μ1.96σXμ+1.96σ)=P(1.96Z1.96)=Φ(1.96)Φ(1.96)=2Φ(1.96)12×0.9751=0.95P(\mu - 1.96\sigma \le X \le \mu + 1.96\sigma) = P(-1.96 \le Z \le 1.96) = \Phi(1.96) - \Phi(-1.96) = 2\Phi(1.96) - 1 \approx 2 \times 0.975 - 1 = 0.95. Ces intervalles sont utilisés pour prendre des décisions, par exemple, pour tester si un échantillon est "conforme" à une population théorique.

Chapitre 5

Applications et modélisation

Choix de la loi continue appropriée

Modéliser un phénomène avec une loi de probabilité consiste à choisir la loi qui décrit le mieux la réalité observée. Ce choix n'est pas toujours évident et repose sur l'analyse du contexte et des propriétés du phénomène.

Voici quelques critères de sélection :

  • Loi uniforme : À utiliser lorsque toutes les valeurs dans un intervalle sont équiprobables. Typique pour des temps d'attente "aléatoires" sans information particulière, ou des erreurs de mesure uniformément réparties.
  • Loi exponentielle : Idéale pour modéliser des durées de vie sans vieillissement ou des temps d'attente entre des événements rares et indépendants (processus de Poisson). La propriété d'absence de mémoire est un indice fort.
  • Loi normale : C'est la loi de prédilection pour des phénomènes qui résultent de la somme de nombreuses petites causes indépendantes, conduisant à une distribution symétrique autour d'une moyenne. Elle est très polyvalente et s'applique à de nombreux domaines (biologie, physique, économie, sciences humaines).

Analyse du contexte du problème :

  • Le type de grandeur à modéliser (durée, taille, erreur, etc.).
  • Les informations disponibles sur la distribution (symétrie, asymétrie, bornes, etc.).
  • Les propriétés spécifiques du phénomène (absence de mémoire, concentration autour d'une moyenne).
  • Des tests statistiques peuvent être effectués pour vérifier l'adéquation d'un modèle à des données observées, mais c'est au-delà du programme de Terminale.

Résolution de problèmes concrets

Une fois la loi choisie et ses paramètres déterminés, la résolution de problèmes concrets implique :

  1. Identification de la variable aléatoire XX et de sa loi (avec ses paramètres).
  2. Traduction de la question posée en termes de probabilités (P(Xa)P(X \le a), P(aXb)P(a \le X \le b), etc.).
  3. Application des formules ou utilisation des outils de calcul (calculatrice graphique, logiciels).
  4. Interprétation des résultats dans le contexte du problème.

Exemple : Un fabricant d'ampoules estime que la durée de vie DD de ses ampoules suit une loi exponentielle avec une durée de vie moyenne de 2000 heures.

  1. Variable DE(λ)D \sim \mathcal{E}(\lambda). Puisque E(D)=1/λ=2000E(D) = 1/\lambda = 2000, alors λ=1/2000=0.0005\lambda = 1/2000 = 0.0005.
  2. Quelle est la probabilité qu'une ampoule dure plus de 3000 heures ? C'est P(D>3000)P(D > 3000).
  3. P(D>3000)=eλ×3000=e0.0005×3000=e1.50.223P(D > 3000) = e^{-\lambda \times 3000} = e^{-0.0005 \times 3000} = e^{-1.5} \approx 0.223.
  4. Il y a environ 22,3% de chances qu'une ampoule dure plus de 3000 heures.

Limites des modèles et approximations

Il est crucial de comprendre que les modèles de probabilité sont des simplifications de la réalité. Ils ne sont jamais parfaits.

Validité des hypothèses : Chaque loi repose sur des hypothèses spécifiques. Si ces hypothèses ne sont pas respectées dans la réalité, le modèle perd de sa pertinence.

  • Par exemple, si la durée de vie d'un objet diminue avec le temps (usure), la loi exponentielle n'est pas un bon modèle car elle suppose l'absence de mémoire.

Approximation d'une loi binomiale par une loi normale : Un résultat très important (théorème central limite) permet, sous certaines conditions, d'approximer une loi discrète par une loi continue. Lorsque nn est grand et pp n'est pas trop proche de 0 ou 1, une variable aléatoire XB(n,p)X \sim \mathcal{B}(n, p) (loi binomiale) peut être approximée par une loi normale YN(np,np(1p))Y \sim \mathcal{N}(np, np(1-p)). Les conditions d'approximation sont généralement n30n \ge 30, np5np \ge 5 et n(1p)5n(1-p) \ge 5. Cette approximation est très utile car les calculs avec la loi normale sont souvent plus simples que ceux avec la loi binomiale pour de grands nn. Il faut cependant appliquer une correction de continuité lors de cette approximation. Par exemple, pour P(X=k)P(X=k), on calcule P(k0.5Yk+0.5)P(k-0.5 \le Y \le k+0.5). Pour P(Xk)P(X \le k), on calcule P(Yk+0.5)P(Y \le k+0.5).

Précautions d'usage :

  • Toujours vérifier la pertinence du modèle choisi.
  • Ne pas extrapoler les résultats au-delà du cadre de validité du modèle.
  • Les résultats de probabilité sont des prévisions, pas des certitudes.

En conclusion, les lois continues sont des outils puissants pour modéliser des phénomènes variés. La maîtrise de leurs définitions, propriétés et méthodes de calcul est essentielle pour l'analyse statistique et la prise de décision.

Après la lecture

Passe à la pratique avec deux blocs bien visibles

Une fois le cours lu, ouvre soit le quiz pour vérifier la compréhension, soit les flashcards pour mémoriser les idées importantes. Les deux s'ouvrent dans une fenêtre dédiée.

Quiz + Flashcards

Suite naturelle

Tu veux aller plus loin que l'article ?

Retrouve le même chapitre dans Wilo avec la suite des questions, la répétition espacée, les corrigés complets et une progression suivie dans le temps.