Éducation nationale françaiseSpécialité MathématiquesTerminale générale18 min de lecture

La loi binomiale

Une version article du chapitre pour comprendre l'essentiel rapidement, vérifier si le niveau correspond, puis basculer vers Wilo pour la pratique guidée et le suivi.

Lecture

5 chapitres

Un parcours éditorialisé et navigable.

Pratique

12 questions

Quiz et cartes mémoire à ouvrir après la lecture.

Objectif

Terminale générale

Format rapide pour vérifier si le chapitre correspond.

Chapitre 1

Introduction aux épreuves et schémas de Bernoulli

Définition d'une épreuve de Bernoulli

Imagine une expérience aléatoire très simple, qui n'a que deux issues possibles. C'est exactement ça, une épreuve de Bernoulli !

  • Expérience aléatoire à deux issues : Une épreuve de Bernoulli est une expérience aléatoire dont le résultat ne peut être que de deux types.
  • Succès et échec : On appelle l'une des issues un "succès" (généralement ce qui nous intéresse ou ce que l'on cherche à obtenir) et l'autre un "échec". Ces termes sont arbitraires et ne portent pas de jugement de valeur.
    • Exemple : Lancer une pièce de monnaie. "Pile" pourrait être le succès, "Face" l'échec.
    • Exemple : Tirer une carte d'un jeu. "Obtenir un as" est le succès, "ne pas obtenir un as" est l'échec.
  • Probabilité de succès (p) : C'est la probabilité que l'événement que l'on a défini comme "succès" se réalise. On la note pp.
  • Probabilité d'échec (1-p) : Puisqu'il n'y a que deux issues, la probabilité d'échec est forcément 1p1 - p. On la note souvent qq.
    • Il est crucial que 0p10 \le p \le 1. Si p=0p=0, le succès est impossible. Si p=1p=1, le succès est certain.

Exemple concret : Un joueur de basket réussit un lancer franc avec une probabilité de 0,7.

  • Expérience : Un lancer franc.
  • Succès : Le joueur réussit son lancer.
  • Échec : Le joueur rate son lancer.
  • p=0,7p = 0,7 (probabilité de succès).
  • 1p=0,31-p = 0,3 (probabilité d'échec).

Variable aléatoire de Bernoulli

Pour rendre les choses plus mathématiques, on associe des nombres aux issues de l'épreuve de Bernoulli.

  • Association d'une valeur numérique aux issues : On crée une variable aléatoire XX qui prend une valeur numérique selon le résultat de l'épreuve.
  • X=1X=1 pour succès, X=0X=0 pour échec : Par convention, la variable aléatoire de Bernoulli prend la valeur 1 en cas de succès et la valeur 0 en cas d'échec.
  • Loi de probabilité de X : La loi de probabilité de XX décrit les probabilités associées à chaque valeur.
    • P(X=1)=pP(X=1) = p (probabilité de succès)
    • P(X=0)=1pP(X=0) = 1-p (probabilité d'échec)
Valeur de XX01
P(X=x)P(X=x)1p1-ppp
  • Espérance et variance d'une variable de Bernoulli :
    • L'espérance E(X)E(X) représente la moyenne des résultats si on répétait l'expérience un très grand nombre de fois. E(X)=0×P(X=0)+1×P(X=1)=0×(1p)+1×p=pE(X) = 0 \times P(X=0) + 1 \times P(X=1) = 0 \times (1-p) + 1 \times p = p. Donc, pour une variable de Bernoulli, l'espérance est égale à la probabilité de succès pp.
    • La variance V(X)V(X) mesure la dispersion des résultats autour de l'espérance. V(X)=E(X2)(E(X))2V(X) = E(X^2) - (E(X))^2. E(X2)=02×(1p)+12×p=pE(X^2) = 0^2 \times (1-p) + 1^2 \times p = p. Donc, V(X)=pp2=p(1p)V(X) = p - p^2 = p(1-p).

Répétition d'épreuves de Bernoulli indépendantes

Maintenant, compliquons un peu : que se passe-t-il si on répète plusieurs fois une épreuve de Bernoulli ?

  • Notion d'indépendance des épreuves : Pour que la loi binomiale s'applique, il est crucial que chaque répétition de l'épreuve de Bernoulli soit indépendante des précédentes. Cela signifie que le résultat d'une épreuve n'influence pas le résultat des autres.
    • Exemple : Lancer une pièce 5 fois. Chaque lancer est indépendant des autres.
    • Contre-exemple : Tirer des billes d'une urne sans remise. Les tirages ne sont pas indépendants car la composition de l'urne change. Si c'est avec remise, alors c'est indépendant.
  • Schéma de Bernoulli : Une suite de nn épreuves de Bernoulli identiques et indépendantes constitue un schéma de Bernoulli. C'est la base de la loi binomiale.
  • Arbre de probabilités pour petites répétitions : Pour visualiser les résultats et calculer les probabilités quand nn est petit, on peut utiliser un arbre de probabilités. Chaque branche représente une issue (succès ou échec) avec sa probabilité.
    • Exemple : Répéter 2 fois une épreuve de Bernoulli avec p=0,6p=0,6.
      • Chemin S-S : 0,6×0,6=0,360,6 \times 0,6 = 0,36
      • Chemin S-E : 0,6×0,4=0,240,6 \times 0,4 = 0,24
      • Chemin E-S : 0,4×0,6=0,240,4 \times 0,6 = 0,24
      • Chemin E-E : 0,4×0,4=0,160,4 \times 0,4 = 0,16
  • Chemins et probabilités : Chaque chemin dans l'arbre correspond à une séquence particulière de succès et d'échecs. La probabilité d'un chemin s'obtient en multipliant les probabilités le long de ce chemin.
    • Si on a kk succès et nkn-k échecs dans un ordre donné, la probabilité de cette séquence est pk×(1p)nkp^k \times (1-p)^{n-k}.

Chapitre 2

Définition et propriétés de la loi binomiale

Contexte d'apparition de la loi binomiale

La loi binomiale apparaît dans un contexte très spécifique :

  • Répétition de nn épreuves de Bernoulli identiques et indépendantes : Comme vu précédemment, c'est le schéma de Bernoulli.
  • Variable aléatoire XX comptant le nombre de succès : On s'intéresse au nombre total de succès obtenus sur ces nn répétitions, et non à l'ordre dans lequel ils apparaissent. La variable aléatoire XX est le nombre de succès.
    • XX peut prendre n'importe quelle valeur entière de 0 (aucun succès) à nn (tous les succès).
  • Paramètres nn et pp : La loi binomiale est entièrement définie par deux paramètres :
    • nn : le nombre de répétitions de l'épreuve de Bernoulli.
    • pp : la probabilité de succès pour chaque épreuve individuelle.
  • Notation B(n,p)B(n, p) : On dit que la variable aléatoire XX suit une loi binomiale de paramètres nn et pp, et on le note XB(n,p)X \sim B(n, p).

Exemple : On lance un dé équilibré 10 fois. On considère "obtenir un 6" comme un succès.

  • Épreuve de Bernoulli : Lancer un dé, succès = "obtenir un 6".
  • Probabilité de succès p=1/6p = 1/6.
  • Nombre de répétitions n=10n = 10.
  • La variable aléatoire XX qui compte le nombre de "6" obtenus suit une loi binomiale B(10,1/6)B(10, 1/6).

Calcul des probabilités P(X=k)

C'est la formule clé de la loi binomiale ! Elle permet de calculer la probabilité d'obtenir exactement kk succès sur nn épreuves.

  • Coefficient binomial (kk parmi nn) : Pour obtenir kk succès sur nn épreuves, il y a plusieurs façons d'y arriver. Par exemple, pour 2 succès sur 3 épreuves (S-S-E, S-E-S, E-S-S). Le nombre de ces façons est donné par le coefficient binomial, noté (nk)\binom{n}{k} ou CnkC_n^k.
    • (nk)=n!k!(nk)!\binom{n}{k} = \frac{n!}{k!(n-k)!}n!=n×(n1)××1n! = n \times (n-1) \times \dots \times 1.
    • Ce coefficient compte le nombre de chemins dans l'arbre de probabilités qui mènent à kk succès et nkn-k échecs.
  • Formule P(X=k)=(nk)pk(1p)nkP(X=k) = \binom{n}{k} p^k (1-p)^{n-k} :
    • (nk)\binom{n}{k} : le nombre de manières d'obtenir kk succès parmi nn épreuves.
    • pkp^k : la probabilité d'avoir kk succès (car chaque succès a une probabilité pp).
    • (1p)nk(1-p)^{n-k} : la probabilité d'avoir nkn-k échecs (car chaque échec a une probabilité 1p1-p).
    • Cette formule est fondamentale ! Apprends-la par cœur.

Exemple (suite) : XB(10,1/6)X \sim B(10, 1/6). Quelle est la probabilité d'obtenir exactement 2 "6" ? P(X=2)=(102)(16)2(56)102P(X=2) = \binom{10}{2} \left(\frac{1}{6}\right)^2 \left(\frac{5}{6}\right)^{10-2} P(X=2)=10!2!(102)!×(16)2×(56)8P(X=2) = \frac{10!}{2!(10-2)!} \times \left(\frac{1}{6}\right)^2 \times \left(\frac{5}{6}\right)^8 P(X=2)=10×92×1×136×(56)8P(X=2) = \frac{10 \times 9}{2 \times 1} \times \frac{1}{36} \times \left(\frac{5}{6}\right)^8 P(X=2)=45×136×(56)80,2907P(X=2) = 45 \times \frac{1}{36} \times \left(\frac{5}{6}\right)^8 \approx 0,2907

  • Interprétation de la formule : Chaque terme a une signification claire. Le coefficient binomial compte les arrangements, et les puissances de pp et (1p)(1-p) donnent la probabilité de chaque arrangement.
  • Utilisation de la calculatrice : Heureusement, tu n'auras pas toujours à calculer (nk)\binom{n}{k} à la main. Les calculatrices (et les logiciels) ont des fonctions dédiées pour calculer P(X=k)P(X=k), souvent appelées binomFdp ou binomPdf. Nous verrons cela plus en détail.

Représentation graphique de la loi binomiale

Visualiser la loi binomiale aide à comprendre son comportement.

  • Diagramme en bâtons : La loi binomiale est une loi de probabilité discrète. Sa représentation graphique est un diagramme en bâtons, où chaque bâton correspond à une valeur possible de XX (de 0 à nn) et sa hauteur à la probabilité P(X=k)P(X=k).
  • Influence des paramètres nn et pp sur la forme :
    • Plus nn est grand, plus le diagramme s'étale et se rapproche d'une forme de "cloche".
    • La valeur de pp influence la position du "pic" (la valeur la plus probable) et la symétrie.
  • Symétrie pour p=0.5p=0.5 : Si p=0,5p = 0,5 (par exemple, lancer une pièce équilibrée), la distribution est parfaitement symétrique autour de n/2n/2. La probabilité d'avoir kk succès est la même que d'avoir nkn-k succès.
  • Asymétrie pour pp différent de 0.50.5 :
    • Si p<0,5p < 0,5, la distribution est asymétrique, étalée vers la droite (le pic est plus proche de 0).
    • Si p>0,5p > 0,5, la distribution est asymétrique, étalée vers la gauche (le pic est plus proche de nn).

Chapitre 3

Calculs d'espérance, variance et écart-type

Espérance d'une variable binomiale

  • Définition de l'espérance : L'espérance E(X)E(X) est la valeur moyenne ou attendue du nombre de succès si l'expérience était répétée un très grand nombre de fois.
  • Formule E(X)=n×pE(X) = n \times p : Pour une variable XB(n,p)X \sim B(n, p), l'espérance est simplement le produit du nombre d'épreuves par la probabilité de succès.
    • Cette formule est intuitive : si tu lances une pièce équilibrée (p=0.5) 100 fois (n=100), tu t'attends à avoir 50 "Pile" en moyenne (100×0.5=50100 \times 0.5 = 50).
  • Interprétation de l'espérance : C'est la valeur la plus "probable" ou la plus "attendue" du nombre de succès. Ce n'est pas forcément une valeur que XX peut prendre (par exemple, E(X)=1,5E(X)=1,5 est possible alors que XX ne peut prendre que des valeurs entières).
  • Valeur moyenne attendue du nombre de succès : C'est une mesure de la tendance centrale de la distribution.

Variance et écart-type d'une variable binomiale

  • Définition de la variance : La variance V(X)V(X) mesure la dispersion des résultats autour de l'espérance. Plus la variance est grande, plus les résultats sont étalés.
  • Formule V(X)=n×p×(1p)V(X) = n \times p \times (1-p) : Pour une variable XB(n,p)X \sim B(n, p), la variance est n×p×qn \times p \times q.
  • Définition de l'écart-type : L'écart-type σ(X)\sigma(X) est la racine carrée de la variance. Il est exprimé dans la même unité que la variable aléatoire XX, ce qui le rend plus facile à interpréter que la variance.
  • Formule σ(X)=n×p×(1p)\sigma(X) = \sqrt{n \times p \times (1-p)} : L'écart-type est souvent utilisé pour définir des intervalles de fluctuation.

Exemple : Pour XB(10,1/6)X \sim B(10, 1/6)

  • E(X)=10×16=106=531,67E(X) = 10 \times \frac{1}{6} = \frac{10}{6} = \frac{5}{3} \approx 1,67. En moyenne, on s'attend à obtenir environ 1,67 "6" sur 10 lancers.
  • V(X)=10×16×(116)=10×16×56=5036=25181,39V(X) = 10 \times \frac{1}{6} \times \left(1-\frac{1}{6}\right) = 10 \times \frac{1}{6} \times \frac{5}{6} = \frac{50}{36} = \frac{25}{18} \approx 1,39.
  • σ(X)=2518=518=5321,18\sigma(X) = \sqrt{\frac{25}{18}} = \frac{5}{\sqrt{18}} = \frac{5}{3\sqrt{2}} \approx 1,18.

Applications et interprétations

  • Mesure de la dispersion des résultats : L'écart-type donne une idée de la variabilité des résultats. Un petit écart-type signifie que les résultats sont généralement proches de la moyenne, tandis qu'un grand écart-type indique une plus grande dispersion.
  • Comparaison de distributions binomiales : En comparant les espérances et les écart-types de différentes lois binomiales, on peut comparer les performances ou les caractéristiques de différents scénarios.
  • Utilisation dans des problèmes concrets : L'espérance et l'écart-type sont des outils précieux pour prendre des décisions, par exemple en contrôle qualité (combien de défauts attendus ?) ou en finance.
  • Prédiction de résultats : Bien que l'espérance ne soit pas une garantie, elle offre une prédiction raisonnable du nombre de succès à attendre. L'écart-type quant à lui permet d'estimer la fourchette dans laquelle les résultats vont probablement se situer.

Chapitre 4

Utilisation de la calculatrice et du logiciel

Calcul de P(X=k) avec la calculatrice

  • Fonction 'binomFdp' ou 'binomPdf' : La plupart des calculatrices scientifiques ou graphiques possèdent une fonction pour calculer directement P(X=k)P(X=k).
    • Sur TI (Texas Instruments) : binomFdp(n, p, k)
    • Sur Casio : BinomialPD(k, n, p)
  • Saisie des paramètres n,p,kn, p, k : Assure-toi de bien saisir le nombre d'épreuves (nn), la probabilité de succès (pp) et le nombre de succès souhaité (kk).
  • Vérification des résultats : Il est toujours bon de faire une estimation mentale ou de vérifier avec un petit exemple pour s'assurer que le résultat est cohérent.
  • Exemples pratiques :
    • XB(20,0.3)X \sim B(20, 0.3). Calculer P(X=5)P(X=5).
      • TI : binomFdp(20, 0.3, 5) 0.1789\approx 0.1789.
      • Casio : BinomialPD(5, 20, 0.3) 0.1789\approx 0.1789.

Calcul de P(X<=k) avec la calculatrice

C'est très utile pour calculer des probabilités cumulées, c'est-à-dire la probabilité d'obtenir "au plus kk succès".

  • Fonction 'binomFRép' ou 'binomCdf' :
    • Sur TI : binomFRép(n, p, k)
    • Sur Casio : BinomialCD(k, n, p)
  • Saisie des paramètres n,p,kn, p, k : Toujours les mêmes paramètres.
  • Calcul de probabilités cumulées : Cette fonction calcule P(Xk)=P(X=0)+P(X=1)++P(X=k)P(X \le k) = P(X=0) + P(X=1) + \dots + P(X=k).
  • Calcul de P(X>k)P(X>k) :
    • P(X>k)=1P(Xk)P(X>k) = 1 - P(X \le k).
    • Exemple : P(X>5)=1P(X5)P(X>5) = 1 - P(X \le 5). Utilise 1 - binomFRép(n, p, 5).
  • Calcul de P(X<k)P(X<k) :
    • P(X<k)=P(Xk1)P(X<k) = P(X \le k-1).
    • Exemple : P(X<5)=P(X4)P(X<5) = P(X \le 4). Utilise binomFRép(n, p, 4).
  • Calcul de P(aXb)P(a \le X \le b) :
    • P(aXb)=P(Xb)P(Xa1)P(a \le X \le b) = P(X \le b) - P(X \le a-1).
    • Exemple : P(3X7)=P(X7)P(X2)P(3 \le X \le 7) = P(X \le 7) - P(X \le 2). Utilise binomFRép(n, p, 7) - binomFRép(n, p, 2).
    • Ces manipulations sont cruciales pour résoudre de nombreux problèmes. Entraîne-toi à les faire !

Simulation de lois binomiales

  • Utilisation de tableurs ou logiciels de statistiques : Des outils comme Excel, Python (avec la bibliothèque scipy.stats), R, ou GeoGebra permettent de simuler des lois binomiales.
  • Génération de nombres aléatoires : Ces logiciels peuvent générer des échantillons d'une loi binomiale, simulant ainsi un grand nombre de répétitions de l'expérience.
  • Visualisation de la distribution : Tu peux ensuite créer des histogrammes de ces échantillons pour visualiser la distribution observée.
  • Comparaison avec la théorie : En comparant l'histogramme de la simulation avec le diagramme en bâtons théorique, tu peux voir comment la loi binomiale prédit le comportement des données. Plus le nombre de simulations est grand, plus la distribution observée se rapprochera de la distribution théorique.

Chapitre 5

Applications et modélisation

Modélisation de situations concrètes

  • Identification des épreuves de Bernoulli : La première étape est de vérifier si la situation peut être décomposée en une série d'épreuves de Bernoulli. Y a-t-il seulement deux issues possibles pour chaque "tentative" ? La probabilité de succès est-elle constante ? Les tentatives sont-elles indépendantes ?
  • Détermination des paramètres nn et pp : Une fois que c'est une épreuve de Bernoulli, identifie clairement le nombre de répétitions (nn) et la probabilité de succès (pp).
  • Justification de l'utilisation de la loi binomiale : Il est important de toujours justifier pourquoi la loi binomiale est appropriée pour le problème donné en mentionnant les trois conditions :
    1. Répétition de nn expériences identiques.
    2. Chaque expérience a deux issues (succès/échec).
    3. Les expériences sont indépendantes et la probabilité de succès pp est constante.
  • Exemples : contrôle qualité, sondages, jeux :
    • Contrôle qualité : Dans une production de 1000 pièces, si la probabilité qu'une pièce soit défectueuse est de 0,01, le nombre de pièces défectueuses suit une B(1000,0,01)B(1000, 0,01).
    • Sondages : Si 60% des électeurs sont favorables à un candidat, et qu'on interroge 50 personnes au hasard (avec remise, ou si l'échantillon est petit par rapport à la population), le nombre de personnes favorables suit une B(50,0,6)B(50, 0,6).
    • Jeux : Dans un jeu où on a 1 chance sur 3 de gagner, si on joue 15 parties, le nombre de victoires suit une B(15,1/3)B(15, 1/3).

Prise de décision et intervalles de fluctuation

La loi binomiale est essentielle pour prendre des décisions basées sur des observations.

  • Intervalle de fluctuation à 95% : C'est un intervalle [a,b][a, b] tel que la probabilité que le nombre de succès XX (suivant une loi B(n,p)B(n, p)) tombe dans cet intervalle est d'au moins 95%. Plus précisément, P(Xa1)0,025P(X \le a-1) \le 0,025 et P(Xb+1)0,025P(X \ge b+1) \le 0,025.
    • On cherche les plus petits aa et plus grands bb tels que P(Xa1)<0,025P(X \le a-1) < 0,025 et P(Xb)0,975P(X \le b) \ge 0,975.
    • On le détermine souvent à l'aide de la fonction binomFRép de la calculatrice en testant des valeurs de kk.
  • Utilisation pour tester une hypothèse : L'intervalle de fluctuation permet de vérifier si un résultat observé est "normal" ou "exceptionnel" par rapport à une hypothèse de départ.
    • Hypothèse H0H_0 : La probabilité de succès est pp.
    • On observe une fréquence fobsf_{obs} de succès sur nn épreuves.
  • Décision d'accepter ou rejeter une hypothèse :
    • Si la fréquence observée fobsf_{obs} (ou le nombre de succès observés kobsk_{obs}) tombe dans l'intervalle de fluctuation, on considère que l'observation est compatible avec l'hypothèse H0H_0. On ne rejette pas l'hypothèse.
    • Si fobsf_{obs} (ou kobsk_{obs}) tombe en dehors de l'intervalle de fluctuation, on considère que l'observation est trop éloignée de ce qui est attendu sous H0H_0. On rejette l'hypothèse H0H_0 avec un risque d'erreur de 5%.
  • Risque d'erreur : Le risque de se tromper en rejetant une hypothèse vraie est de 5% (ou le seuil choisi, souvent α=0,05\alpha=0,05).

Exemple : Un fabricant affirme que 80% de ses produits sont conformes. Sur un échantillon de 100 produits, 70 sont conformes. Doit-on rejeter l'affirmation ?

  • Hypothèse H0H_0 : p=0,8p=0,8. XB(100,0,8)X \sim B(100, 0,8).
  • On cherche l'intervalle de fluctuation à 95%.
    • On cherche aa tel que P(Xa1)<0,025P(X \le a-1) < 0,025.
    • On cherche bb tel que P(Xb)0,975P(X \le b) \ge 0,975.
    • Avec la calculatrice : P(X72)0,027P(X \le 72) \approx 0,027 et P(X73)0,047P(X \le 73) \approx 0,047. Donc a1=72a-1=72, a=73a=73.
    • P(X86)0,978P(X \le 86) \approx 0,978. Donc b=86b=86.
    • L'intervalle de fluctuation est [73,86][73, 86].
  • Le nombre de produits conformes observés est kobs=70k_{obs} = 70.
  • Comme 70[73,86]70 \notin [73, 86], on rejette l'hypothèse du fabricant. L'affirmation de 80% de conformité semble douteuse.

Limites et conditions d'application

Même si la loi binomiale est très utile, elle n'est pas applicable partout.

  • Importance de l'indépendance des épreuves : Si les épreuves ne sont pas indépendantes (par exemple, tirage sans remise dans une petite population), la loi binomiale n'est plus valide. On devrait alors utiliser la loi hypergéométrique.
  • Constance de la probabilité de succès : Si la probabilité pp change d'une épreuve à l'autre, la loi binomiale ne s'applique pas.
  • Taille de l'échantillon : Pour que l'approximation par l'intervalle de fluctuation soit pertinente, nn doit être suffisamment grand. En général, on considère que n30n \ge 30, np5np \ge 5 et n(1p)5n(1-p) \ge 5 sont des conditions suffisantes.
  • Cas où la loi binomiale n'est pas adaptée :
    • Si le nombre d'issues est supérieur à deux (par exemple, lancer un dé et s'intéresser à l'obtention d'un 1, un 2 ou un 3).
    • Si le nombre d'épreuves n'est pas fixe.
    • Si les événements sont rares sur un grand intervalle de temps ou d'espace (on utilise alors la loi de Poisson).

En maîtrisant ces concepts, tu seras bien équipé pour aborder les problèmes de probabilités qui relèvent de la loi binomiale !

Après la lecture

Passe à la pratique avec deux blocs bien visibles

Une fois le cours lu, ouvre soit le quiz pour vérifier la compréhension, soit les flashcards pour mémoriser les idées importantes. Les deux s'ouvrent dans une fenêtre dédiée.

Quiz + Flashcards

Suite naturelle

Tu veux aller plus loin que l'article ?

Retrouve le même chapitre dans Wilo avec la suite des questions, la répétition espacée, les corrigés complets et une progression suivie dans le temps.