Probabilités et statistiques
Une version article du chapitre pour comprendre l'essentiel rapidement, vérifier si le niveau correspond, puis basculer vers Wilo pour la pratique guidée et le suivi.
Lecture
4 chapitres
Un parcours éditorialisé et navigable.
Pratique
12 questions
Quiz et cartes mémoire à ouvrir après la lecture.
Objectif
Terminale générale
Format rapide pour vérifier si le chapitre correspond.
Chapitre 1
Rappels et approfondissements sur les probabilités
Événements et probabilités conditionnelles
En probabilité, un événement est un ensemble de résultats possibles d'une expérience aléatoire. Par exemple, si vous lancez un dé, l'événement "obtenir un nombre pair" correspond aux résultats {2, 4, 6}.
La probabilité conditionnelle d'un événement sachant qu'un événement est réalisé (on note ) est la probabilité que se produise, étant donné que s'est déjà produit. Elle se calcule par la formule : où .
Deux événements et sont dits indépendants si la réalisation de l'un n'influence pas la réalisation de l'autre. Mathématiquement, cela se traduit par : Une autre façon de le dire est (si ) ou (si ).
La formule des probabilités totales est très utile pour calculer la probabilité d'un événement lorsqu'on connaît les probabilités conditionnelles de par rapport à un système complet d'événements. Un système complet d'événements est une partition de l'univers , c'est-à-dire un ensemble d'événements tels qu'ils sont deux à deux disjoints et leur union est égale à . Alors, la probabilité de est donnée par :
Les arbres pondérés sont des outils graphiques excellents pour visualiser et calculer des probabilités, en particulier avec les probabilités conditionnelles. Chaque branche est associée à une probabilité.
- La somme des probabilités des branches issues d'un même nœud est égale à 1.
- La probabilité d'un chemin est le produit des probabilités des branches qui le composent.
- La probabilité d'un événement est la somme des probabilités des chemins qui mènent à cet événement.
Exemple : Dans une usine, 60% des pièces sont produites par la machine A et 40% par la machine B. La machine A produit 2% de pièces défectueuses, la machine B en produit 3%. On peut construire un arbre pondéré :
- 1ère branche : Machine A (0.6) ou Machine B (0.4)
- 2ème branche (après Machine A) : Défectueuse (0.02) ou Non défectueuse (0.98)
- 2ème branche (après Machine B) : Défectueuse (0.03) ou Non défectueuse (0.97) La probabilité qu'une pièce soit défectueuse est .
Variables aléatoires discrètes
Une variable aléatoire discrète est une fonction qui associe un nombre réel à chaque issue d'une expérience aléatoire, et dont l'ensemble des valeurs possibles est fini ou dénombrable (on peut les "compter" : 0, 1, 2, ...).
La loi de probabilité d'une variable aléatoire discrète est la donnée de toutes les valeurs que peut prendre et de leurs probabilités associées . La somme de toutes ces probabilités doit être égale à 1 : .
L'espérance d'une variable aléatoire discrète est la valeur moyenne que l'on peut s'attendre à obtenir si l'on répète l'expérience un grand nombre de fois. C'est une mesure de la tendance centrale.
La variance mesure la dispersion des valeurs de la variable aléatoire autour de son espérance. Une formule de calcul souvent plus pratique est : où .
L'écart-type est la racine carrée de la variance. Il s'exprime dans la même unité que la variable aléatoire, ce qui le rend plus interprétable que la variance.
La fonction de répartition d'une variable aléatoire discrète donne la probabilité que prenne une valeur inférieure ou égale à . C'est une fonction en escalier, croissante, qui tend vers 0 pour et vers 1 pour .
Loi binomiale
La loi binomiale est une loi de probabilité discrète fondamentale qui décrit le nombre de succès dans une séquence de expériences de Bernoulli indépendantes.
Une épreuve de Bernoulli est une expérience aléatoire qui n'a que deux issues possibles :
- "Succès", avec une probabilité .
- "Échec", avec une probabilité .
Un schéma de Bernoulli est la répétition fois de manière identique et indépendante d'une même épreuve de Bernoulli. Si est la variable aléatoire qui compte le nombre de succès dans un schéma de Bernoulli de répétitions avec une probabilité de succès , alors suit une loi binomiale, notée .
Les calculs de probabilités binomiales sont donnés par la formule suivante : où est le nombre de succès souhaité (), et (lu "k parmi n") est le coefficient binomial, qui représente le nombre de façons de choisir succès parmi épreuves.
L'espérance et la variance d'une loi binomiale sont :
Exemple : On lance 10 fois une pièce de monnaie équilibrée. Soit le nombre de faces obtenues. suit une loi . La probabilité d'obtenir exactement 7 faces est . L'espérance est . On s'attend à obtenir 5 faces.
Chapitre 2
Variables aléatoires continues et lois de probabilité
Introduction aux variables aléatoires continues
Une variable aléatoire continue peut prendre n'importe quelle valeur dans un intervalle donné de nombres réels. Contrairement aux variables discrètes, la probabilité qu'une variable continue prenne une valeur précise est toujours nulle. On parle plutôt de probabilité qu'elle appartienne à un intervalle.
La densité de probabilité (ou fonction de densité) d'une variable aléatoire continue est une fonction telle que :
- pour tout .
- L'aire totale sous la courbe de est égale à 1 : .
- La probabilité que prenne une valeur dans un intervalle est donnée par l'aire sous la courbe de entre et : .
La fonction de répartition continue d'une variable aléatoire continue est définie de la même manière que pour une variable discrète, mais elle est calculée avec une intégrale : Ses propriétés sont :
- est croissante.
- .
- .
- .
Le calcul d'aires sous la courbe est donc essentiel pour déterminer les probabilités avec les variables aléatoires continues. Dans de nombreux cas, ces calculs se feront à l'aide de la calculatrice ou de tables, car les intégrales peuvent être complexes.
Loi uniforme
Une variable aléatoire continue suit une loi uniforme sur un intervalle (où ) si sa densité de probabilité est constante sur cet intervalle et nulle ailleurs. On la note .
La densité constante est donnée par : L'aire sous cette fonction sur est bien .
L'espérance d'une loi uniforme sur est le milieu de l'intervalle :
La variance d'une loi uniforme sur est :
Exemple : Le temps d'attente d'un bus est uniformément réparti entre 0 et 15 minutes. Soit ce temps d'attente. . La densité est pour . L'espérance est minutes. La probabilité d'attendre entre 5 et 10 minutes est .
Loi exponentielle
La loi exponentielle est une loi de probabilité continue qui est souvent utilisée pour modéliser des durées de vie, des temps d'attente, ou des intervalles entre des événements dans un processus de Poisson. Elle est caractérisée par la propriété de "durée de vie sans vieillissement" (ou absence de mémoire). Cela signifie que la probabilité qu'un événement se produise dans un intervalle de temps futur ne dépend pas du temps déjà écoulé. pour .
La loi exponentielle dépend d'un paramètre (lambda). Plus est grand, plus la durée de vie moyenne est courte.
La densité de probabilité est :
La fonction de répartition est :
Le calcul de probabilités avec la loi exponentielle se fait grâce à la fonction de répartition :
L'espérance et la variance d'une loi exponentielle sont :
Exemple : La durée de vie (en heures) d'un composant électronique suit une loi exponentielle de paramètre . La durée de vie moyenne est heures. La probabilité que le composant fonctionne pendant plus de 1000 heures est .
Chapitre 3
Loi normale et approximation
Loi normale centrée réduite N(0,1)
La loi normale est la loi de probabilité continue la plus importante en statistiques. Elle est souvent appelée "loi de Gauss". Sa densité de probabilité est caractérisée par une forme de courbe en cloche, symétrique autour de sa moyenne.
La loi normale centrée réduite N(0,1) est un cas particulier de loi normale, avec une moyenne et un écart-type . Sa densité de probabilité est notée : La fonction de répartition de la loi normale centrée réduite est notée , où est une variable aléatoire suivant .
L'utilisation de la calculatrice est indispensable pour calculer les probabilités associées à la loi normale centrée réduite (et générale). Les fonctions "normalcdf" (ou "FracNormale" / "normalFRep" selon les modèles) permettent de calculer .
Historiquement, on utilisait des tables de la loi normale pour trouver les valeurs de . Ces tables donnent pour des valeurs positives de . Pour des valeurs négatives ou pour , on utilise les propriétés de symétrie :
Loi normale générale N(μ,σ²)
Une variable aléatoire suit une loi normale générale si son espérance est et sa variance est (donc son écart-type est ). La densité de probabilité est : La courbe est toujours en cloche, centrée sur , et d'autant plus "aplatie" que est grand.
Pour calculer des probabilités avec une loi normale générale, on utilise un changement de variable pour se ramener à la loi normale centrée réduite. Si , alors la variable suit une loi . Ainsi, . Ceci permet d'utiliser les fonctions de la calculatrice ou les tables de la loi .
Les intervalles de fluctuation sont particulièrement importants pour la loi normale. On retient souvent les règles suivantes, dites "règles des " :
- (environ 68% des valeurs sont à moins d'un écart-type de la moyenne)
- (environ 95% des valeurs sont à moins de deux écarts-types de la moyenne)
- (environ 99.7% des valeurs sont à moins de trois écarts-types de la moyenne) Ces intervalles sont cruciaux pour l'inférence statistique.
Approximation d'une loi binomiale par une loi normale
Dans certaines conditions d'application, une loi binomiale peut être approchée par une loi normale. Cette approximation est justifiée par le théorème central limite. Les conditions sont généralement :
- (le nombre d'épreuves est grand)
- (le nombre attendu de succès est suffisant)
- (le nombre attendu d'échecs est suffisant)
Lorsque ces conditions sont remplies, si , alors peut être approchée par une variable aléatoire . C'est-à-dire, la loi binomiale est approchée par une loi normale ayant la même espérance et la même variance.
Puisque la loi binomiale est discrète et la loi normale est continue, une correction de continuité est souvent appliquée pour améliorer la précision de l'approximation. Pour calculer avec la loi binomiale, on l'approxime par avec la loi normale. De même, pour , on utilise . Pour , on utilise .
L'intérêt de l'approximation réside dans la simplification des calculs. Avant l'ère des calculatrices puissantes, calculer pour de grands était très fastidieux. L'approximation normale permettait d'obtenir des probabilités rapidement, même si elle introduit une légère erreur. Aujourd'hui, elle est toujours utile pour comprendre le lien entre les lois et pour des démonstrations théoriques.
Chapitre 4
Statistique inférentielle : Échantillonnage et estimation
Fluctuation d'échantillonnage
La fluctuation d'échantillonnage est le phénomène selon lequel les caractéristiques (comme la fréquence d'un événement) d'un échantillon varient d'un échantillon à l'autre, même si tous les échantillons sont tirés de la même population et de la même manière. On ne s'attend pas à ce que la fréquence observée dans un échantillon soit exactement égale à la proportion réelle dans la population.
Un échantillon aléatoire de taille est un ensemble de individus (ou observations) choisis au hasard dans une population. Chaque individu de la population a la même chance d'être inclus dans l'échantillon.
La fréquence observée d'une certaine caractéristique dans un échantillon de taille est le nombre d'individus présentant cette caractéristique divisé par . Par exemple, si on tire vis d'une production et que sont défectueuses, la fréquence de défectueuses est .
L'intervalle de fluctuation asymptotique (IFA) au seuil de 95% est un intervalle centré sur la proportion de la population, tel que, si l'hypothèse que la proportion est est vraie, la fréquence observée d'un échantillon de taille a 95% de chances de tomber dans cet intervalle. Pour des grands échantillons (, , ), l'IFA au seuil de 95% est donné par : Le coefficient 1.96 provient de la loi normale centrée réduite : .
Cet intervalle permet de déterminer si une fréquence observée est "normale" ou "exceptionnelle" par rapport à une proportion théorique .
Prise de décision et test d'hypothèse
La prise de décision statistique, basée sur un test d'hypothèse, consiste à utiliser les données d'un échantillon pour décider si l'on doit rejeter ou non une affirmation concernant la population (l'hypothèse nulle).
L'hypothèse nulle () est l'affirmation que l'on souhaite tester (souvent, une absence d'effet ou une valeur spécifique d'un paramètre). L'hypothèse alternative () est ce que l'on accepte si l'on rejette . Exemple : : "La proportion de pièces défectueuses est ". : "La proportion de pièces défectueuses est différente de ".
Le seuil de signification (souvent 5% ou 1%) est la probabilité maximale que l'on accepte de commettre une erreur de type I, c'est-à-dire de rejeter alors qu'elle est vraie. Si , on est prêt à prendre 5% de risque de se tromper en rejetant .
La règle de décision pour un test sur une proportion (avec un IFA au seuil de 95%) est la suivante :
- On calcule l'intervalle de fluctuation asymptotique pour la proportion sous l'hypothèse .
- On observe la fréquence dans l'échantillon.
- Si appartient à l'intervalle , on ne rejette pas au seuil de 5%. On considère que la différence observée est due à la fluctuation d'échantillonnage.
- Si n'appartient pas à l'intervalle , on rejette au seuil de 5%. On considère que la fréquence observée est trop éloignée de pour être attribuée au seul hasard de l'échantillonnage.
Il est important de noter que "ne pas rejeter " ne signifie pas que est vraie, mais plutôt que les données de l'échantillon ne fournissent pas de preuves suffisantes pour la rejeter.
Estimation par intervalle de confiance
L'estimation par intervalle de confiance est une méthode qui consiste à estimer un paramètre inconnu de la population (comme une proportion ) à partir d'un échantillon, non pas par une seule valeur (estimation ponctuelle), mais par un intervalle de valeurs.
L'estimation ponctuelle de la proportion de la population est la fréquence observée dans l'échantillon. Cependant, varie d'un échantillon à l'autre.
Le niveau de confiance (souvent 95% ou 99%) est la probabilité que l'intervalle de confiance calculé contienne la vraie valeur du paramètre de la population. Si l'on construisait 100 intervalles de confiance à 95% à partir de 100 échantillons différents, on s'attendrait à ce qu'environ 95 d'entre eux contiennent la vraie proportion .
Le calcul de l'intervalle de confiance pour une proportion au niveau de confiance de 95% est donné par : Les conditions d'application sont les mêmes que pour l'IFA : , , . Notez que la formule utilise la fréquence observée (qui est connue), et non la proportion théorique (qui est inconnue). C'est la principale différence avec l'intervalle de fluctuation.
L'intervalle de confiance permet d'encadrer la valeur réelle du paramètre avec une certaine probabilité. Par exemple, si l'on obtient , on peut affirmer avec un niveau de confiance de 95% que la vraie proportion de la population est comprise entre 23% et 27%.
Après la lecture
Passe à la pratique avec deux blocs bien visibles
Une fois le cours lu, ouvre soit le quiz pour vérifier la compréhension, soit les flashcards pour mémoriser les idées importantes. Les deux s'ouvrent dans une fenêtre dédiée.
Suite naturelle
Tu veux aller plus loin que l'article ?
Retrouve le même chapitre dans Wilo avec la suite des questions, la répétition espacée, les corrigés complets et une progression suivie dans le temps.