Éducation nationale françaiseOption Mathématiques expertesTerminale générale20 min de lecture

Statistiques inférentielles

Une version article du chapitre pour comprendre l'essentiel rapidement, vérifier si le niveau correspond, puis basculer vers Wilo pour la pratique guidée et le suivi.

Lecture

6 chapitres

Un parcours éditorialisé et navigable.

Pratique

12 questions

Quiz et cartes mémoire à ouvrir après la lecture.

Objectif

Terminale générale

Format rapide pour vérifier si le chapitre correspond.

Chapitre 1

Introduction aux Statistiques Inférentielles

Qu'est-ce que l'inférence statistique ?

L'inférence statistique est une branche des statistiques qui permet de tirer des conclusions sur une population entière à partir de l'analyse d'un échantillon de cette population. C'est comme goûter une cuillerée de soupe pour savoir si elle est bien assaisonnée, plutôt que de devoir manger toute la marmite !

Key Concepts:

  • Population et échantillon :

    • Une population est l'ensemble de tous les individus ou éléments d'intérêt (par exemple, tous les lycéens de France). Ses caractéristiques sont appelées paramètres (par exemple, la proportion de lycéens ayant un bac S).
    • Un échantillon est un sous-ensemble de la population sélectionné pour l'étude (par exemple, 1000 lycéens choisis au hasard). Ses caractéristiques sont appelées statistiques (par exemple, la proportion de bac S dans l'échantillon).
    • L'échantillon doit être représentatif de la population pour que l'inférence soit valide. On privilégie généralement les échantillons aléatoires.
  • Statistiques descriptives vs inférentielles :

    • Les statistiques descriptives organisent, résument et présentent les données (calcul de moyennes, médianes, écarts-types, création de graphiques). Elles décrivent ce qui est observé dans l'échantillon.
    • Les statistiques inférentielles vont plus loin : elles utilisent les données de l'échantillon pour faire des prédictions ou des généralisations sur la population dont est issu l'échantillon.
  • Objectifs de l'inférence :

    • Estimer les paramètres inconnus de la population (par exemple, estimer la proportion réelle de bac S).
    • Tester des hypothèses sur ces paramètres (par exemple, tester si la proportion de bac S est supérieure à 50%).

Variables aléatoires et lois de probabilité

Pour comprendre l'inférence, il est essentiel de maîtriser les concepts de variables aléatoires et de lois de probabilité.

Key Concepts:

  • Rappel sur les variables aléatoires :

    • Une variable aléatoire (VA) est une fonction qui associe un nombre à chaque issue d'une expérience aléatoire.
    • Elle peut être discrète (prend un nombre fini ou dénombrable de valeurs, comme le nombre de succès) ou continue (peut prendre n'importe quelle valeur dans un intervalle, comme une taille ou un poids).
    • Chaque VA est associée à une loi de probabilité qui décrit la distribution des probabilités sur ses différentes valeurs possibles.
  • Loi binomiale B(n,p)B(n, p) :

    • Décrit le nombre de succès XX dans une séquence de nn épreuves de Bernoulli indépendantes, où chaque épreuve a une probabilité de succès pp.
    • XB(n,p)X \sim B(n, p).
    • Espérance : E(X)=npE(X) = np.
    • Variance : V(X)=np(1p)V(X) = np(1-p).
    • Elle est fondamentale pour modéliser des proportions ou des dénombrements de succès.
  • Loi normale N(μ,σ2)\mathcal{N}(\mu, \sigma^2) (centrée réduite N(0,1)\mathcal{N}(0, 1)) :

    • C'est la loi de probabilité continue la plus courante. Sa densité a une forme de "cloche".
    • Caractérisée par sa moyenne μ\mu et sa variance σ2\sigma^2 (ou son écart-type σ\sigma).
    • La loi normale centrée réduite N(0,1)\mathcal{N}(0, 1) est une loi normale avec μ=0\mu=0 et σ=1\sigma=1.
    • Toute variable aléatoire XN(μ,σ2)X \sim \mathcal{N}(\mu, \sigma^2) peut être transformée en une variable centrée réduite Z=XμσZ = \frac{X - \mu}{\sigma}.
    • De nombreuses grandeurs naturelles suivent (approximativement) une loi normale.

Théorème Central Limite (TCL)

Le Théorème Central Limite est l'un des piliers de l'inférence statistique. Il explique pourquoi la loi normale est si importante.

Key Concepts:

  • Énoncé du TCL :

    • Soient X1,X2,,XnX_1, X_2, \dots, X_n des variables aléatoires indépendantes et identiquement distribuées (i.i.d.) avec une espérance μ\mu et une variance σ2\sigma^2 finies.
    • Alors, pour nn suffisamment grand, la somme Sn=X1++XnS_n = X_1 + \dots + X_n et la moyenne Xˉn=Snn\bar{X}_n = \frac{S_n}{n} suivent approximativement une loi normale.
    • Plus précisément, la variable aléatoire centrée réduite Zn=Xˉnμσ/nZ_n = \frac{\bar{X}_n - \mu}{\sigma/\sqrt{n}} converge en loi vers une loi normale centrée réduite N(0,1)\mathcal{N}(0, 1) lorsque nn \to \infty.
  • Conditions d'application :

    • Les variables XiX_i doivent être indépendantes.
    • Elles doivent avoir la même distribution (identiquement distribuées).
    • Leur variance doit être finie.
    • La taille de l'échantillon nn doit être suffisamment grande (souvent n30n \ge 30 est une règle empirique, mais cela dépend de la distribution sous-jacente des XiX_i).
  • Importance pour l'inférence :

    • Le TCL nous permet d'utiliser la loi normale pour faire des inférences sur les moyennes d'échantillons, même si la distribution de la population d'origine n'est pas normale.
    • C'est ce qui justifie l'utilisation de la loi normale pour construire des intervalles de confiance et effectuer des tests d'hypothèses sur des moyennes et des proportions, à condition que la taille de l'échantillon soit adéquate.
    • Il est le fondement théorique de nombreuses méthodes statistiques.

Chapitre 2

Estimation Ponctuelle et par Intervalle

Estimateurs et propriétés

Key Concepts:

  • Définition d'un estimateur :

    • Un estimateur est une statistique (une fonction des observations de l'échantillon) utilisée pour estimer un paramètre inconnu de la population. On le note souvent θ^\hat{\theta} pour estimer θ\theta.
    • Par exemple, la moyenne de l'échantillon Xˉ\bar{X} est un estimateur de la moyenne de la population μ\mu. La proportion d'un échantillon ff est un estimateur de la proportion de la population pp.
  • Biais et variance :

    • Le biais d'un estimateur θ^\hat{\theta} est la différence entre son espérance et la vraie valeur du paramètre : Biais(θ^)=E(θ^)θBiais(\hat{\theta}) = E(\hat{\theta}) - \theta. Un estimateur est sans biais si E(θ^)=θE(\hat{\theta}) = \theta.
    • La variance d'un estimateur V(θ^)V(\hat{\theta}) mesure la dispersion des valeurs de l'estimateur autour de son espérance. On recherche des estimateurs avec une faible variance.
    • Un bon estimateur est généralement sans biais et a une faible variance.
  • Estimateur sans biais :

    • Un estimateur θ^\hat{\theta} est dit sans biais si, en moyenne sur un grand nombre d'échantillons, il donne la vraie valeur du paramètre.
    • Par exemple, la moyenne d'échantillon Xˉ\bar{X} est un estimateur sans biais de la moyenne de la population μ\mu.
    • La proportion d'échantillon F=XnF = \frac{X}{n} est un estimateur sans biais de la proportion de la population pp.

Intervalle de confiance d'une proportion

Plutôt qu'une estimation ponctuelle unique, on préfère souvent un intervalle de confiance qui donne une plage de valeurs plausibles pour le paramètre.

Key Concepts:

  • Construction de l'intervalle :

    • Pour une proportion pp d'une population, estimée par une fréquence ff sur un échantillon de taille nn (avec nn grand, np5np \ge 5, n(1p)5n(1-p) \ge 5), l'intervalle de confiance (IC) au niveau de confiance 1α1-\alpha est donné par : IC1α(p)=[fz1α/2f(1f)n;f+z1α/2f(1f)n]IC_{1-\alpha}(p) = \left[ f - z_{1-\alpha/2} \sqrt{\frac{f(1-f)}{n}} ; f + z_{1-\alpha/2} \sqrt{\frac{f(1-f)}{n}} \right]
    • z1α/2z_{1-\alpha/2} est le quantile d'ordre 1α/21-\alpha/2 de la loi normale centrée réduite N(0,1)\mathcal{N}(0,1).
    • Pour un niveau de confiance de 95% (α=0.05\alpha=0.05), z0.9751.96z_{0.975} \approx 1.96.
    • Pour un niveau de confiance de 99% (α=0.01\alpha=0.01), z0.9952.58z_{0.995} \approx 2.58.
  • Niveau de confiance :

    • Le niveau de confiance 1α1-\alpha (par exemple, 95% ou 99%) est la probabilité que l'intervalle de confiance calculé contienne la vraie valeur du paramètre de la population.
    • Un niveau de confiance de 95% signifie que si l'on répétait l'expérience un grand nombre de fois, 95% des intervalles construits contiendraient la vraie proportion pp.
  • Marge d'erreur :

    • La marge d'erreur (ou précision) est la demi-largeur de l'intervalle : M=z1α/2f(1f)nM = z_{1-\alpha/2} \sqrt{\frac{f(1-f)}{n}}.
    • Elle indique la précision de l'estimation. Pour la réduire, on peut augmenter la taille de l'échantillon nn ou diminuer le niveau de confiance (ce qui rend l'intervalle moins "sûr").

Intervalle de confiance d'une moyenne

Key Concepts:

  • Cas de la variance connue :

    • Si l'écart-type σ\sigma de la population est connu (ce qui est rare en pratique), pour un échantillon de taille nn (grand, grâce au TCL), l'IC au niveau 1α1-\alpha est : IC1α(μ)=[Xˉz1α/2σn;Xˉ+z1α/2σn]IC_{1-\alpha}(\mu) = \left[ \bar{X} - z_{1-\alpha/2} \frac{\sigma}{\sqrt{n}} ; \bar{X} + z_{1-\alpha/2} \frac{\sigma}{\sqrt{n}} \right]
    • Xˉ\bar{X} est la moyenne de l'échantillon.
  • Cas de la variance inconnue (grand échantillon) :

    • En pratique, σ\sigma est souvent inconnu. Pour un grand échantillon (n30n \ge 30), on peut remplacer σ\sigma par l'écart-type de l'échantillon ss.
    • L'intervalle devient : IC1α(μ)=[Xˉz1α/2sn;Xˉ+z1α/2sn]IC_{1-\alpha}(\mu) = \left[ \bar{X} - z_{1-\alpha/2} \frac{s}{\sqrt{n}} ; \bar{X} + z_{1-\alpha/2} \frac{s}{\sqrt{n}} \right]
    • Pour des petits échantillons avec σ\sigma inconnu, on utilise la loi de Student (hors programme de Terminale, mais bonne à connaître).
  • Interprétation de l'intervalle :

    • Un intervalle de confiance pour une moyenne est interprété de la même manière que pour une proportion : il fournit une plage de valeurs dans laquelle la vraie moyenne de la population est susceptible de se trouver, avec une certaine probabilité (le niveau de confiance).
    • Il ne signifie pas que la moyenne de l'échantillon a 95% de chances d'être dans cet intervalle, mais que 95% des intervalles construits de cette manière contiendront la vraie moyenne de la population.

Chapitre 3

Tests d'Hypothèses : Principes Fondamentaux

Démarche générale d'un test statistique

Key Concepts:

  • Hypothèse nulle (H0H_0) et alternative (H1H_1) :

    • L'hypothèse nulle (H0H_0) est l'hypothèse à tester. C'est généralement une affirmation d'absence d'effet, d'absence de différence, ou une valeur spécifique du paramètre. Ex: H0:p=0.5H_0: p = 0.5 (la proportion est de 50%).
    • L'hypothèse alternative (H1H_1) est l'opposé de H0H_0. C'est ce que l'on cherche à prouver. Ex: H1:p0.5H_1: p \ne 0.5 (la proportion est différente de 50%), ou H1:p>0.5H_1: p > 0.5 (la proportion est supérieure à 50%).
    • On cherche à rejeter H0H_0 en faveur de H1H_1 si les données de l'échantillon sont trop "éloignées" de ce que H0H_0 prédit.
  • Statistique de test :

    • C'est une variable aléatoire calculée à partir de l'échantillon, dont la distribution est connue sous l'hypothèse H0H_0.
    • Elle mesure à quel point les données de l'échantillon s'écartent de ce qui est attendu sous H0H_0.
    • Exemple : pour une proportion, on utilise souvent une statistique de test Z=fp0p0(1p0)nZ = \frac{f - p_0}{\sqrt{\frac{p_0(1-p_0)}{n}}}.
  • Région de rejet :

    • C'est l'ensemble des valeurs de la statistique de test qui sont considérées comme trop extrêmes pour être compatibles avec H0H_0.
    • Si la statistique de test calculée tombe dans cette région, on rejette H0H_0.
    • La taille de la région de rejet est déterminée par le seuil de signification α\alpha.

Erreurs de type I et de type II

Lors d'un test d'hypothèse, il y a toujours un risque de prendre une mauvaise décision.

Key Concepts:

  • Risque alpha (α\alpha) (seuil de signification) :

    • Le risque de première espèce est la probabilité de rejeter H0H_0 alors qu'elle est vraie.
    • On le note α\alpha, et il est fixé a priori par le chercheur (souvent 0.05 ou 0.01).
    • α\alpha est la probabilité de faire une "fausse alarme" (dire qu'il y a un effet alors qu'il n'y en a pas).
  • Risque bêta (β\beta) :

    • Le risque de seconde espèce est la probabilité de ne pas rejeter H0H_0 alors qu'elle est fausse.
    • C'est la probabilité de manquer un effet réel.
  • Puissance du test (1β1-\beta) :

    • La puissance d'un test est la probabilité de rejeter H0H_0 quand elle est fausse (c'est-à-dire de détecter un effet quand il existe).
    • On cherche à avoir des tests avec une puissance élevée.
    • Il y a un compromis entre α\alpha et β\beta : diminuer α\alpha augmente β\beta (et diminue la puissance), à taille d'échantillon fixe.

Valeur p (p-value)

La p-value est une alternative moderne à la région de rejet pour prendre une décision.

Key Concepts:

  • Définition de la p-value :

    • La p-value (ou valeur pp) est la probabilité d'obtenir une statistique de test aussi extrême, voire plus extrême, que celle observée dans l'échantillon, en supposant que H0H_0 est vraie.
    • C'est une mesure de la "force de l'évidence" contre H0H_0 fournie par les données. Une petite p-value signifie que les données observées sont très improbables sous H0H_0.
  • Règle de décision avec la p-value :

    • Si pvalueαp_{\text{value}} \le \alpha, on rejette H0H_0.
    • Si pvalue>αp_{\text{value}} > \alpha, on ne rejette pas H0H_0.
    • Attention : "ne pas rejeter H0H_0" ne signifie pas que H0H_0 est vraie, mais simplement que les données ne sont pas suffisamment fortes pour la réfuter.
  • Interprétation :

    • Une petite p-value (ex: 0.01) indique que les données sont peu compatibles avec H0H_0. Il est donc raisonnable de rejeter H0H_0.
    • Une grande p-value (ex: 0.30) indique que les données sont compatibles avec H0H_0. Il n'y a pas assez de preuves pour rejeter H0H_0.

Chapitre 4

Tests de Conformité pour une Proportion

Test unilatéral d'une proportion

Un test unilatéral est utilisé lorsque l'on s'intéresse à une déviation dans une seule direction (par exemple, "supérieur à" ou "inférieur à").

Key Concepts:

  • Formulation des hypothèses :

    • H0:p=p0H_0: p = p_0 (la proportion est égale à une valeur de référence p0p_0)
    • H1:p>p0H_1: p > p_0 (test unilatéral droit) OU H1:p<p0H_1: p < p_0 (test unilatéral gauche)
    • Exemple : H0:p=0.5H_0: p = 0.5 (la proportion de réussite est de 50%) contre H1:p>0.5H_1: p > 0.5 (la proportion de réussite est supérieure à 50%).
  • Calcul de la statistique de test :

    • Pour un grand échantillon, la statistique de test ZZ suit approximativement une loi normale centrée réduite sous H0H_0: Z=fp0p0(1p0)nZ = \frac{f - p_0}{\sqrt{\frac{p_0(1-p_0)}{n}}}
    • ff est la proportion observée dans l'échantillon, p0p_0 est la proportion sous H0H_0, et nn est la taille de l'échantillon.
  • Décision basée sur la p-value ou la région de rejet :

    • Avec p-value : Calculer pvalue=P(Z>zobs)p_{\text{value}} = P(Z > z_{\text{obs}}) pour H1:p>p0H_1: p > p_0 ou P(Z<zobs)P(Z < z_{\text{obs}}) pour H1:p<p0H_1: p < p_0. Rejeter H0H_0 si pvalueαp_{\text{value}} \le \alpha.
    • Avec région de rejet : Pour H1:p>p0H_1: p > p_0, rejeter H0H_0 si Z>z1αZ > z_{1-\alpha}. Pour H1:p<p0H_1: p < p_0, rejeter H0H_0 si Z<z1αZ < -z_{1-\alpha}.
    • z1αz_{1-\alpha} est le quantile d'ordre 1α1-\alpha de la loi N(0,1)\mathcal{N}(0,1).

Test bilatéral d'une proportion

Un test bilatéral est utilisé lorsque l'on s'intéresse à une déviation dans n'importe quelle direction (différent de).

Key Concepts:

  • Adaptation des hypothèses :

    • H0:p=p0H_0: p = p_0
    • H1:pp0H_1: p \ne p_0 (la proportion est différente de p0p_0)
  • Calcul de la statistique de test :

    • La statistique de test ZZ est la même que pour le test unilatéral : Z=fp0p0(1p0)nZ = \frac{f - p_0}{\sqrt{\frac{p_0(1-p_0)}{n}}}
  • Interprétation des résultats :

    • Avec p-value : pvalue=P(Z>zobs)=2×P(Z>zobs)p_{\text{value}} = P(|Z| > |z_{\text{obs}}|) = 2 \times P(Z > |z_{\text{obs}}|). Rejeter H0H_0 si pvalueαp_{\text{value}} \le \alpha.
    • Avec région de rejet : Rejeter H0H_0 si Z>z1α/2|Z| > z_{1-\alpha/2} (c'est-à-dire si Z<z1α/2Z < -z_{1-\alpha/2} ou Z>z1α/2Z > z_{1-\alpha/2}).
    • Le seuil α\alpha est partagé entre les deux "queues" de la distribution.

Conditions d'application et limites

Key Concepts:

  • Taille de l'échantillon :

    • L'approximation par la loi normale est valide si la taille de l'échantillon nn est suffisamment grande.
    • Règles empiriques : np05np_0 \ge 5 et n(1p0)5n(1-p_0) \ge 5. Certains utilisent np010np_0 \ge 10 et n(1p0)10n(1-p_0) \ge 10.
    • Ces conditions garantissent que la distribution binomiale est bien approximée par une loi normale.
  • Approximation par la loi normale :

    • Ces tests reposent sur le fait que, sous H0H_0, la fréquence d'échantillon ff (ou la statistique ZZ) suit approximativement une loi normale.
  • Exemples d'application :

    • Vérifier si la proportion de pièces défectueuses fabriquées est conforme à une norme (p0p_0).
    • Tester si la proportion d'électeurs favorables à un candidat est différente de 50%.
    • Évaluer si un nouveau traitement a un taux de succès significativement différent d'un traitement standard.

Chapitre 5

Tests de Conformité pour une Moyenne

Test unilatéral d'une moyenne (variance connue)

Key Concepts:

  • Hypothèses et statistique de test Z :

    • H0:μ=μ0H_0: \mu = \mu_0 (la moyenne de la population est égale à une valeur de référence μ0\mu_0)
    • H1:μ>μ0H_1: \mu > \mu_0 OU H1:μ<μ0H_1: \mu < \mu_0
    • Si l'écart-type σ\sigma de la population est connu et nn est grand (ou la population est normale), la statistique de test est : Z=Xˉμ0σ/nZ = \frac{\bar{X} - \mu_0}{\sigma/\sqrt{n}}
    • Sous H0H_0, ZZ suit une loi normale centrée réduite N(0,1)\mathcal{N}(0,1).
  • Calcul de la p-value :

    • Pour H1:μ>μ0H_1: \mu > \mu_0, pvalue=P(Z>zobs)p_{\text{value}} = P(Z > z_{\text{obs}}).
    • Pour H1:μ<μ0H_1: \mu < \mu_0, pvalue=P(Z<zobs)p_{\text{value}} = P(Z < z_{\text{obs}}).
  • Conclusion du test :

    • Rejeter H0H_0 si pvalueαp_{\text{value}} \le \alpha.

Test bilatéral d'une moyenne (variance connue)

Key Concepts:

  • Formulation des hypothèses :

    • H0:μ=μ0H_0: \mu = \mu_0
    • H1:μμ0H_1: \mu \ne \mu_0 (la moyenne est différente de μ0\mu_0)
  • Statistique de test et décision :

    • La statistique de test ZZ est la même : Z=Xˉμ0σ/nZ = \frac{\bar{X} - \mu_0}{\sigma/\sqrt{n}}.
    • Avec p-value : pvalue=2×P(Z>zobs)p_{\text{value}} = 2 \times P(Z > |z_{\text{obs}}|). Rejeter H0H_0 si pvalueαp_{\text{value}} \le \alpha.
    • Avec région de rejet : Rejeter H0H_0 si Z>z1α/2|Z| > z_{1-\alpha/2}.
  • Exemples concrets :

    • Vérifier si le poids moyen de paquets de céréales est bien de 500g (H0:μ=500H_0: \mu = 500).
    • Tester si la durée de vie moyenne d'un composant électronique est conforme aux spécifications.

Conditions d'application et robustesse

Key Concepts:

  • Normalité de la population :

    • Si la population d'où est issu l'échantillon est normalement distribuée, le test est valide quelle que soit la taille de l'échantillon nn.
    • Cependant, en pratique, la normalité est rarement connue avec certitude.
  • Taille de l'échantillon :

    • Grâce au TCL, si nn est suffisamment grand (n30n \ge 30), le test est robuste même si la distribution de la population n'est pas normale. L'approximation par la loi normale est alors justifiée.
  • Utilisation de la loi de Student (mention) :

    • Si l'écart-type de la population σ\sigma est inconnu (le cas le plus fréquent) ET que la taille de l'échantillon nn est petite (n<30n < 30), on ne peut plus utiliser la loi normale.
    • Dans ce cas, on utilise l'écart-type de l'échantillon ss et la loi de Student avec n1n-1 degrés de liberté. C'est un point important pour des études plus avancées.

Chapitre 6

Comparaison de Proportions et de Moyennes

Test de comparaison de deux proportions

On veut savoir si deux proportions p1p_1 et p2p_2 (issues de deux populations) sont différentes.

Key Concepts:

  • Hypothèses pour deux échantillons :

    • H0:p1=p2H_0: p_1 = p_2 (ou p1p2=0p_1 - p_2 = 0) : les proportions sont égales.
    • H1:p1p2H_1: p_1 \ne p_2 (test bilatéral) OU H1:p1>p2H_1: p_1 > p_2 OU H1:p1<p2H_1: p_1 < p_2 (tests unilatéraux).
    • On a deux échantillons indépendants de tailles n1n_1 et n2n_2, avec des fréquences observées f1f_1 et f2f_2.
  • Statistique de test :

    • Sous H0H_0, on estime une proportion commune pc=n1f1+n2f2n1+n2p_c = \frac{n_1 f_1 + n_2 f_2}{n_1 + n_2}.
    • La statistique de test (pour n1,n2n_1, n_2 grands) est : Z=f1f2pc(1pc)(1n1+1n2)Z = \frac{f_1 - f_2}{\sqrt{p_c(1-p_c)\left(\frac{1}{n_1} + \frac{1}{n_2}\right)}}
    • Sous H0H_0, ZZ suit approximativement une loi normale centrée réduite N(0,1)\mathcal{N}(0,1).
  • Interprétation :

    • On calcule la p-value (ou on compare ZZ aux quantiles de N(0,1)\mathcal{N}(0,1)) et on rejette H0H_0 si pvalueαp_{\text{value}} \le \alpha.
    • Si H0H_0 est rejetée, on conclut qu'il y a une différence significative entre les deux proportions.

Test de comparaison de deux moyennes (échantillons indépendants)

On veut savoir si deux moyennes μ1\mu_1 et μ2\mu_2 de deux populations sont différentes.

Key Concepts:

  • Hypothèses :

    • H0:μ1=μ2H_0: \mu_1 = \mu_2 (ou μ1μ2=0\mu_1 - \mu_2 = 0) : les moyennes sont égales.
    • H1:μ1μ2H_1: \mu_1 \ne \mu_2 (test bilatéral) OU H1:μ1>μ2H_1: \mu_1 > \mu_2 OU H1:μ1<μ2H_1: \mu_1 < \mu_2 (tests unilatéraux).
    • On a deux échantillons indépendants de tailles n1n_1 et n2n_2, avec des moyennes Xˉ1\bar{X}_1 et Xˉ2\bar{X}_2 et des écarts-types s1s_1 et s2s_2.
  • Statistique de test (Z ou t) :

    • Si les variances de population σ12,σ22\sigma_1^2, \sigma_2^2 sont connues (rare) ou si n1,n2n_1, n_2 sont grands (et σ1,σ2\sigma_1, \sigma_2 sont remplacés par s1,s2s_1, s_2): Z=(Xˉ1Xˉ2)(μ1μ2)0σ12n1+σ22n2Z = \frac{(\bar{X}_1 - \bar{X}_2) - (\mu_1 - \mu_2)_0}{\sqrt{\frac{\sigma_1^2}{n_1} + \frac{\sigma_2^2}{n_2}}} Sous H0:μ1μ2=0H_0: \mu_1 - \mu_2 = 0, la formule se simplifie. ZN(0,1)Z \sim \mathcal{N}(0,1).
    • Si les variances sont inconnues et n1,n2n_1, n_2 sont petits : On utilise un test tt de Student, souvent en supposant l'égalité des variances (ou non) et en calculant un tt avec des degrés de liberté ajustés (hors programme de Terminale).
  • Conditions d'application :

    • Indépendance des échantillons.
    • Les échantillons sont grands (n130n_1 \ge 30 et n230n_2 \ge 30) pour l'approximation normale.
    • Si les échantillons sont petits, il faut que les populations soient normales et on utilise la loi de Student.

Applications pratiques

Key Concepts:

  • Sondages d'opinion : Comparer la proportion d'opinions favorables à un candidat entre deux régions.
  • Efficacité de traitements : Comparer le taux de guérison de deux médicaments ou la moyenne d'une mesure (ex: tension artérielle) après deux traitements différents.
  • Analyse de données expérimentales : Vérifier si un changement de processus de fabrication a un impact significatif sur la qualité moyenne d'un produit.
  • Ces tests sont omniprésents dans la recherche scientifique, l'ingénierie, la médecine et les sciences sociales pour prendre des décisions basées sur des données.

Après la lecture

Passe à la pratique avec deux blocs bien visibles

Une fois le cours lu, ouvre soit le quiz pour vérifier la compréhension, soit les flashcards pour mémoriser les idées importantes. Les deux s'ouvrent dans une fenêtre dédiée.

Quiz + Flashcards

Suite naturelle

Tu veux aller plus loin que l'article ?

Retrouve le même chapitre dans Wilo avec la suite des questions, la répétition espacée, les corrigés complets et une progression suivie dans le temps.