Probabilités avancées
Une version article du chapitre pour comprendre l'essentiel rapidement, vérifier si le niveau correspond, puis basculer vers Wilo pour la pratique guidée et le suivi.
Lecture
5 chapitres
Un parcours éditorialisé et navigable.
Pratique
12 questions
Quiz et cartes mémoire à ouvrir après la lecture.
Objectif
Terminale générale
Format rapide pour vérifier si le chapitre correspond.
Chapitre 1
Rappels et Compléments sur les Probabilités Discrètes
Événements et Calculs de Probabilités
En probabilités, un événement est un ensemble de résultats possibles d'une expérience aléatoire. L'espace probabilisable est l'ensemble de tous les résultats possibles () et l'ensemble de tous les événements ().
- Événements incompatibles (ou mutuellement exclusifs) : Deux événements et sont incompatibles si leur intersection est vide, c'est-à-dire qu'ils ne peuvent pas se produire en même temps. .
- Si et sont incompatibles, alors .
- Événements indépendants : Deux événements et sont indépendants si la réalisation de l'un n'influence pas la probabilité de réalisation de l'autre.
- .
- Alternativement, si , alors .
- Formules de probabilités conditionnelles : La probabilité de sachant (la probabilité que se réalise sachant que s'est déjà réalisé) est notée .
- , avec .
- Cette formule est fondamentale pour analyser des situations où l'information évolue.
Exemple : On tire une carte d'un jeu de 32 cartes.
- Événement : "La carte tirée est un as". .
- Événement : "La carte tirée est un cœur". .
- Événement : "La carte tirée est l'as de cœur". .
- . On retrouve , ce qui confirme que les événements "tirer un as" et "tirer un cœur" sont indépendants dans un jeu de 32 cartes (sans joker).
Variables Aléatoires Discrètes
Une variable aléatoire discrète est une fonction qui associe un nombre réel à chaque résultat d'une expérience aléatoire. Les valeurs que peut prendre sont dénombrables (souvent des entiers).
- Loi de probabilité : Elle décrit toutes les valeurs possibles de et leurs probabilités associées. On la représente souvent par un tableau :
... ... où et . - Espérance mathématique () : C'est la valeur moyenne que l'on s'attend à obtenir si l'expérience est répétée un grand nombre de fois. C'est une mesure de la tendance centrale.
- .
- Variance () : Elle mesure la dispersion des valeurs de la variable aléatoire autour de son espérance. Plus la variance est élevée, plus les valeurs sont éloignées de la moyenne.
- .
- Une formule de calcul plus pratique est .
- Écart-type () : C'est la racine carrée de la variance, exprimée dans la même unité que la variable aléatoire.
- .
- Fonction de répartition () : Pour une variable aléatoire discrète , la fonction de répartition est définie pour tout réel par . Elle est en escalier.
Lois de Probabilité Usuelles Discrètes
Ces lois modélisent des situations récurrentes.
- Loi de Bernoulli : Modélise une expérience n'ayant que deux issues : succès (probabilité ) ou échec (probabilité ).
- prend la valeur 1 pour un succès et 0 pour un échec.
- , .
- , .
- Loi binomiale : Compte le nombre de succès dans répétitions indépendantes d'une épreuve de Bernoulli de paramètre .
- pour .
- , .
- La loi binomiale est très utilisée pour modéliser des comptages de succès dans des séries d'expériences identiques et indépendantes.
- Loi géométrique : Modélise le nombre d'épreuves de Bernoulli (de paramètre ) nécessaires pour obtenir le premier succès.
- pour .
- , .
- Elle possède la propriété d'absence de mémoire : . Cela signifie que la probabilité d'attendre épreuves supplémentaires pour le premier succès, sachant qu'on a déjà attendu épreuves sans succès, est la même que si on n'avait rien attendu du tout.
Chapitre 2
Probabilités Conditionnelles et Indépendance
Définition et Propriétés des Probabilités Conditionnelles
La probabilité conditionnelle est la probabilité que l'événement se réalise, sachant que l'événement s'est déjà réalisé.
- Définition : , avec .
- Formule des probabilités composées : Permet de calculer la probabilité de l'intersection de plusieurs événements.
- .
- Pour trois événements : .
- Arbres pondérés : Un outil visuel très utile pour représenter des séquences d'événements et calculer des probabilités conditionnelles ou d'intersections.
- Chaque branche est étiquetée par une probabilité (conditionnelle ou non).
- La probabilité d'un chemin est le produit des probabilités le long des branches de ce chemin.
- La somme des probabilités des branches issues d'un même nœud est égale à 1.
Exemple : Dans une usine, 95% des produits sont conformes (C). Parmi les produits conformes, 80% sont de qualité supérieure (S). Parmi les produits non conformes (), 10% sont de qualité supérieure.
- , .
- .
- .
- On peut calculer .
- Et .
Formule des Probabilités Totales
La formule des probabilités totales permet de calculer la probabilité d'un événement en le décomposant selon les différentes façons dont il peut se produire.
- Un système complet d'événements est une partition de l'univers . Cela signifie que les événements sont :
- Mutuellement incompatibles : pour .
- Leur union forme : .
- pour tout .
- Formule : Si est un système complet d'événements, alors pour tout événement :
- Applications pratiques : Cette formule est très utile pour calculer la probabilité d'un événement "global" en le décomposant en sous-cas plus simples, souvent modélisés par un arbre pondéré.
- Dans l'exemple précédent : .
- La formule des probabilités totales est essentielle pour calculer la probabilité d'un événement qui peut être atteint par plusieurs chemins différents.
Formule de Bayes
La formule de Bayes permet de "retourner" une probabilité conditionnelle : calculer à partir de . Elle est cruciale en inférence statistique et en diagnostic.
- Formule : Si est un système complet d'événements et un événement de probabilité non nulle, alors : Où est généralement calculé par la formule des probabilités totales : .
- Probabilité a posteriori : est appelée probabilité a posteriori de sachant , car elle est calculée après avoir observé l'événement . est la probabilité a priori.
- Applications en diagnostic : Permet de calculer la probabilité d'une cause (maladie ) sachant un symptôme ou un test positif ().
- Exemple : On reprend l'usine. Quelle est la probabilité qu'un produit de qualité supérieure (S) soit non conforme () ? . C'est une probabilité très faible, ce qui est rassurant pour la qualité.
Indépendance d'Événements et de Variables Aléatoires
- Définition de l'indépendance d'événements : Deux événements et sont indépendants si la réalisation de l'un n'affecte pas la probabilité de l'autre.
- .
- Équivalemment, si , .
- Équivalemment, si , .
- Conséquences de l'indépendance : Si et sont indépendants, alors et , et , ainsi que et sont aussi indépendants.
- Indépendance de variables aléatoires : Deux variables aléatoires discrètes et sont indépendantes si pour tout et dans leurs ensembles de valeurs respectifs :
- .
- Conséquence importante : Si et sont indépendantes, alors et .
- ==La propriété n'est vraie que si et sont indépendantes.==
Chapitre 3
Variables Aléatoires à Densité (Continues)
Introduction aux Variables Aléatoires Continues
Une variable aléatoire continue (ou à densité) peut prendre n'importe quelle valeur dans un intervalle de nombres réels. On ne peut pas attribuer une probabilité non nulle à une valeur spécifique.
- Notion de densité de probabilité : Une fonction est une fonction de densité de probabilité pour une variable aléatoire continue si :
- pour tout .
- L'aire totale sous la courbe de est égale à 1 : .
- Calcul de probabilités par intégration : Pour une variable aléatoire continue, la probabilité que prenne une valeur dans un intervalle est donnée par l'intégrale de sa fonction de densité sur cet intervalle :
- .
- Pour une variable continue, pour toute valeur . Par conséquent, .
- Fonction de répartition () : Pour une variable aléatoire continue , la fonction de répartition est définie pour tout réel par :
- .
- On a (si est dérivable).
- .
Espérance et Variance d'une Variable Continue
- Calcul de l'espérance () : Si est une variable aléatoire continue de densité , son espérance est :
- .
- Calcul de la variance () : La variance mesure la dispersion des valeurs de autour de son espérance.
- .
- Formule de calcul plus pratique : .
- Propriétés de l'espérance et de la variance (identiques aux variables discrètes) :
- .
- .
Loi Uniforme
Une variable aléatoire suit une loi uniforme sur un intervalle (notée ) si elle a une densité constante sur cet intervalle et nulle ailleurs.
- Densité de probabilité uniforme :
- si
- sinon.
- Calcul de probabilités : Pour avec , .
- Espérance et variance :
- .
- .
- La loi uniforme est souvent utilisée pour modéliser des phénomènes où toutes les valeurs d'un intervalle sont également probables.
Loi Exponentielle
Une variable aléatoire suit une loi exponentielle de paramètre (notée ) si sa fonction de densité est :
- Densité de probabilité exponentielle :
- si .
- si .
- Fonction de répartition : pour .
- Espérance et variance :
- .
- .
- Propriété d'absence de mémoire : C'est la propriété la plus caractéristique de la loi exponentielle.
- pour tout .
- Cela signifie que la probabilité qu'un événement se produise dans unités de temps futures, sachant qu'il ne s'est pas produit pendant unités de temps, est la même que si l'on partait de zéro.
- Applications en fiabilité : La loi exponentielle est souvent utilisée pour modéliser la durée de vie de composants électroniques ou le temps d'attente entre deux événements consécutifs dans un processus de Poisson (par exemple, arrivées de clients, désintégrations radioactives).
Chapitre 4
Loi Normale et Théorème Central Limite
Introduction à la Loi Normale
La loi normale (ou loi de Gauss-Laplace) est l'une des lois de probabilité les plus importantes en statistiques. Elle modélise de nombreux phénomènes naturels (taille des individus, erreurs de mesure, etc.).
- Courbe de Gauss : Sa fonction de densité est représentée par une courbe en forme de cloche, symétrique par rapport à sa moyenne.
- pour .
- Paramètres et :
- (mu) est l'espérance (la moyenne) de la variable aléatoire. Il détermine la position du centre de la courbe.
- (sigma) est l'écart-type. Il détermine la dispersion de la courbe : un petit donne une courbe étroite et haute, un grand donne une courbe large et aplatie.
- La variable aléatoire est notée (où est la variance).
- Propriétés de symétrie : La courbe est symétrique par rapport à la droite . Le maximum de la densité est atteint en .
- .
- Règle des 3 sigmas : Environ 68% des valeurs se trouvent dans l'intervalle , environ 95% dans , et environ 99.7% dans .
Loi Normale Centrée Réduite N(0,1)
La loi normale centrée réduite est une loi normale particulière de moyenne 0 et d'écart-type 1. Elle est notée . Sa densité est souvent notée et sa fonction de répartition .
- Transformation Z : Toute variable aléatoire normale peut être transformée en une variable normale centrée réduite par la formule :
- .
- Cette transformation est essentielle car elle permet d'utiliser une seule table de valeurs pour calculer les probabilités de toutes les lois normales.
- Utilisation de la table de la loi normale : La table donne les valeurs de pour différentes valeurs de .
- .
- Il est crucial de bien maîtriser la transformation en Z et l'utilisation des tables ou calculatrices pour calculer les probabilités associées à la loi normale.
Approximation d'une Loi Binomiale par une Loi Normale
Sous certaines conditions, une loi binomiale peut être approximée par une loi normale .
- Conditions d'application : L'approximation est jugée bonne si :
- (un grand nombre d'épreuves).
- (le nombre attendu de succès est suffisant).
- (le nombre attendu d'échecs est suffisant).
- Paramètres de la loi normale d'approximation :
- (l'espérance de la binomiale).
- (la variance de la binomiale).
- Donc est approximée par .
- Correction de continuité : Puisqu'on approxime une loi discrète par une loi continue, il faut appliquer une correction de continuité pour améliorer la précision de l'approximation.
- .
- .
- .
- .
- .
- Exemples d'application : Calculer la probabilité d'obtenir entre 45 et 55 succès sur 100 lancers d'une pièce équilibrée. La loi exacte serait binomiale, mais difficile à calculer. L'approximation normale simplifie grandement le problème.
Théorème Central Limite (TCL)
Le Théorème Central Limite est l'un des résultats les plus fondamentaux et puissants en probabilités et statistiques.
- Énoncé simplifié : Si on prend un grand nombre de variables aléatoires indépendantes et identiquement distribuées (i.i.d.), leur somme (ou leur moyenne) tend à suivre une loi normale, quelle que soit la distribution d'origine des variables individuelles.
- Convergence en loi : Plus précisément, si sont variables aléatoires i.i.d. avec une espérance et une variance (finie), alors la variable aléatoire normalisée :
converge en loi vers une loi normale centrée réduite lorsque .
- De manière équivalente, la moyenne empirique suit approximativement une loi pour grand.
- Importance du TCL en statistiques :
- Il justifie l'utilisation de la loi normale pour modéliser des phénomènes qui sont le résultat de l'accumulation de nombreux petits effets aléatoires (par exemple, les erreurs de mesure).
- Il est la base de l'inférence statistique, notamment pour la construction d'intervalles de confiance et les tests d'hypothèses sur des moyennes d'échantillons, même si la distribution de la population n'est pas normale.
- Le TCL est la raison pour laquelle la loi normale est omniprésente en statistiques, même lorsque les données brutes ne sont pas normalement distribuées.
Chapitre 5
Chaînes de Markov à Temps Discret
Introduction aux Chaînes de Markov
Une chaîne de Markov à temps discret est un modèle mathématique qui décrit une séquence d'événements dans laquelle la probabilité de chaque événement dépend uniquement de l'état de l'événement précédent. C'est une propriété "sans mémoire".
- Notion d'état : Le système peut se trouver dans un ensemble fini d'états possibles, noté .
- Propriété de Markov (absence de mémoire) : La probabilité de passer à un état futur ne dépend que de l'état actuel du système, et non de la manière dont cet état a été atteint (du passé).
- .
- Matrice de transition () : C'est une matrice carrée où est le nombre d'états. Ses éléments représentent la probabilité de passer de l'état à l'état en une seule étape.
- .
- Chaque ligne de la matrice doit sommer à 1 (car le système doit aller vers un des états possibles).
Calcul des Probabilités d'État
- Vecteur d'état () : C'est un vecteur ligne qui contient les probabilités d'être dans chaque état à l'étape .
- .
- La somme des éléments de est égale à 1.
- Évolution des probabilités : Pour obtenir le vecteur d'état à l'étape à partir du vecteur d'état à l'étape , on utilise la relation :
- .
- Calcul de : Pour trouver le vecteur d'état après étapes à partir de l'état initial , on utilise :
- .
- est la matrice de transition en étapes. Ses éléments représentent la probabilité de passer de l'état à l'état en étapes.
- Le calcul de peut être effectué par diagonalisation si est diagonalisable.
État Stable et Distribution Stationnaire
Pour de nombreuses chaînes de Markov, après un grand nombre d'étapes, la distribution des probabilités d'état tend vers une distribution stationnaire (ou état stable), indépendante de l'état initial.
- Existence et unicité de l'état stable : Si la chaîne de Markov est irréductible (on peut aller de n'importe quel état à n'importe quel autre) et apériodique (elle ne revient pas à un état uniquement à des intervalles de temps fixes), alors il existe une unique distribution stationnaire .
- Calcul de la distribution stationnaire () : C'est un vecteur ligne qui satisfait l'équation :
- .
- De plus, la somme de ses éléments doit être 1 : .
- La résolution de ce système d'équations linéaires donne la distribution stationnaire.
- Interprétation à long terme : La distribution stationnaire représente la proportion de temps que le système passe en moyenne dans chaque état sur une longue période.
- L'état stable est une prédiction importante du comportement à long terme du système.
Applications des Chaînes de Markov
Les chaînes de Markov sont des outils puissants pour modéliser une grande variété de phénomènes dynamiques.
- Modélisation de phénomènes aléatoires : Tout processus où l'avenir ne dépend que du présent et non du passé.
- Exemples en biologie : Modélisation de l'évolution des populations (par exemple, reproduction de bactéries, propagation de maladies), séquences d'ADN.
- Exemples en économie : Analyse du comportement des marchés financiers, prévision de la migration des clients entre différentes marques, modélisation de la solvabilité des entreprises.
- Autres domaines : Moteurs de recherche (algorithme PageRank de Google), météorologie (prédiction du temps), traitement du langage naturel.
- Limites du modèle : La principale limite est la propriété de Markov elle-même : l'hypothèse d'absence de mémoire n'est pas toujours réaliste. Dans de nombreux cas, l'état futur dépend de plusieurs états passés, nécessitant des modèles plus complexes (comme les chaînes de Markov d'ordre supérieur ou les modèles de Markov cachés).
Après la lecture
Passe à la pratique avec deux blocs bien visibles
Une fois le cours lu, ouvre soit le quiz pour vérifier la compréhension, soit les flashcards pour mémoriser les idées importantes. Les deux s'ouvrent dans une fenêtre dédiée.
Suite naturelle
Tu veux aller plus loin que l'article ?
Retrouve le même chapitre dans Wilo avec la suite des questions, la répétition espacée, les corrigés complets et une progression suivie dans le temps.