L’Essai de Bernoulli et la Distribution Binomiale
Résumé
Dans cette classe, nous étudierons le concept des essais de Bernoulli et leurs implications dans la théorie des probabilités. Nous commençons par une définition détaillée des essais de Bernoulli pour ensuite aborder le concept d’indépendance entre les événements. Après avoir clarifié ces idées, nous appliquons le théorème binomial pour comprendre comment la répétition d’un essai de Bernoulli produit des résultats avec une distribution binomiale. Enfin, des exercices pratiques sont proposés pour appliquer et renforcer ces concepts.
OBJECTIFS D’APPRENTISSAGE :
À la fin de cette classe, l’étudiant sera capable de :
- Identifier les principales caractéristiques des essais de Bernoulli, y compris l’indépendance entre les tentatives.
- Appliquer correctement la notation pour les événements binomiaux dérivés des essais de Bernoulli.
- Distinguer entre différentes formes d’indépendance (2-indépendance, 3-indépendance, n-indépendance) et comprendre leur relation et application dans les essais de Bernoulli.
- Comprendre la relation entre l’essai de Bernoulli et le théorème binomial, et comment cette relation peut être utilisée pour calculer la probabilité d’une série de succès et d’échecs.
- Appliquer la distribution binomiale (ou de Bernoulli) pour calculer la probabilité d’un certain nombre de succès dans une série de tentatives.
TABLE DES MATIÈRES :
L’essai de Bernoulli
Différentes formes d’indépendance
L’essai de Bernoulli et le théorème binomial
La distribution binomiale (ou de Bernoulli) et les distributions de probabilité
Exercices :
L’essai de Bernoulli
Un essai de Bernoulli est une expérience aléatoire dichotomique avec une certaine probabilité de succès p. Si un essai de Bernoulli est répété n fois de manière identique et indépendante, on obtient les événements de Bernoulli : Un certain nombre k de succès parmi n tentatives. Ceux-ci sont également appelés événements binomiaux et nous les représentons par la notation
\Large \displaystyle Bi(n;k;p)
Une autre caractéristique importante des essais de Bernoulli est que toutes les tentatives sont indépendantes les unes des autres.
EXEMPLE : On lance plusieurs fois un dé à 6 faces. Des exemples d’événements de type Bernoulli pour cette expérience sont :
- Obtenir 3 as en 5 tentatives : représenté par Bi(5;3;1/6)
- Obtenir 7 nombres pairs en 12 tentatives : représenté par Bi(12;7;1/3)
Différentes formes d’indépendance
L’indépendance entre les tentatives développées dans l’essai de Bernoulli n’est pas précisément la même indépendance que nous avons déjà examinée, c’est une version beaucoup plus restreinte. Pour expliquer cette différence, examinons les types d’indépendance entre les événements
2-indépendance
L’indépendance que nous connaissons déjà est celle qui existe entre deux événements. Nous l’appelons « 2-indépendance ». En ces termes, nous disons que les événements A et B sont 2-indépendants si
P(A\cap B) = P(A)P(B)
3-indépendance
De manière analogue, la 3-indépendance entre trois événements A, B et C est définie par la relation
P(A\cap B\cap C) = P(A)P(B)P(C)
Il est important de noter que la 2-indépendance entre A, B et C n’implique pas nécessairement la 3-indépendance, bien que l’inverse soit vrai.
La n-indépendance entre les essais de Bernoulli
De manière analogue aux définitions précédentes, la n-indépendance entre une collection d’événements A_1, \cdots, A_n est définie par la relation
\Large \displaystyle P\left(\bigcap_{i=1}^n A_i\right) = \prod_{i=1}^n P(A_i)
Et de manière analogue, nous avons que :
| (n-1)-indépendance n’implique pas nécessairement n-indépendance |
| n-indépendance \Longrightarrow (n-1)-indépendance |
Les n répétitions réalisées dans l’essai de Bernoulli sont n-indépendantes.
L’essai de Bernoulli et le théorème binomial
Considérons une expérience de succès et d’échec avec une probabilité de succès de p ; à chaque tentative, il y aura, en conséquence, une probabilité 1-p d’échec. Il est clair que la probabilité qu’un succès ou un échec se produise à chaque tentative est de 1 ; et comme toutes les tentatives sont indépendantes, la probabilité qu’un succès ou un échec se produise dans les n tentatives sera 1^n. À partir de cela, nous aurons :
\Large \displaystyle 1 = 1^n = [p + (1-p)]^n = \sum_{k=0}^n {{n}\choose{k}} p^k(1-p)^{n-k}
Dans la dernière égalité, le Théorème binomial de Newton a été appliqué, et les termes dans la somme peuvent être interprétés de la manière suivante :
- \displaystyle {{n}\choose{k}} : le nombre de façons dont k succès peuvent se produire en n tentatives
- p^k : La probabilité que k succès indépendants se produisent
- (1-p)^{n-k} : La probabilité que n-k échecs indépendants se produisent
En combinant ces éléments de la manière dont ils apparaissent dans la somme, nous obtenons : la probabilité d’obtenir k succès parmi n tentatives ; ou équivalemment, la probabilité d’obtenir n-k échecs parmi n tentatives.
Si nous séparons chaque terme de la somme, nous obtenons les probabilités d’obtenir :
| \displaystyle {{n}\choose{0}} p^0(1-p)^{n-0} = (1-p)^n | 0 succès parmi n tentatives |
| \displaystyle {{n}\choose{1}} p^1(1-p)^{n-1} = n p(1-p)^{n-1} | 1 succès parmi n tentatives |
| \displaystyle {{n}\choose{2}} p^2(1-p)^{n-2} | 2 succès parmi n tentatives |
| \vdots | \vdots |
| \displaystyle {{n}\choose{k}} p^k(1-p)^{n-k} | k succès parmi n tentatives |
| \vdots | \vdots |
| \displaystyle {{n}\choose{n-1}} p^{n-1}(1-p)^{n-(n-1)} = n p^{n-1}(1-p) | n-1 succès parmi n tentatives |
| \displaystyle {{n}\choose{n}} p^{n}(1-p)^{0} = p^{n} | n succès parmi n tentatives |
Et la somme de tous ceux-ci, comme nous l’avons déjà vu, est « 1 ». Montrant que toutes les possibilités ont été couvertes.
À partir de cela, la probabilité de l’événement de Bernoulli est définie :
\displaystyle\Large \color{blue}{P(Bi(n;k;p)) = {{n}\choose{k}}p^k(1-p)^{n-k}}
Ou nous disons aussi que le nombre de succès X suit une distribution binomiale :
\color{blue}{\Large \displaystyle X\sim Bi(n;p) \longmapsto P(X=x) = {{n}\choose{x}}p^x(1-p)^{n-x}}
La distribution binomiale (ou de Bernoulli) et les distributions de probabilité
À travers la distribution binomiale nous commençons à avoir les premières notions des distributions de probabilité et de variable aléatoire. Dans ce cas, la variable aléatoire (discrète) est associée au nombre de succès et sa distribution de probabilité est donnée par les termes du théorème binomial
{\Large \displaystyle P(X=x) = {{n}\choose{x}}p^x(1-p)^{n-x}}
Exercices :
- On lance un dé équilibré à 6 faces 5 fois. Calculez la probabilité d’obtenir 3 fois un nombre pair comme résultat.
- On lance une pièce de monnaie 10 fois. Calculez la probabilité d’obtenir de 0 à 10 faces et faites un graphique montrant la probabilité pour chaque résultat. À quoi ressemblera le graphique si on augmente le nombre de lancers et qu’on examine la probabilité d’obtenir un nombre de faces allant de 0 à ce nombre de lancers ? Un tableur Excel peut être utile ici.
- On a une loterie avec une quantité s de boules, où r sont dorées et le reste blanches. On mélange toutes les boules et on en tire une au hasard, et on gagne lorsqu’on tire la boule dorée. Si cet expérience est répétée de manière identique 20 fois, estimez le nombre de victoires les plus probables pour chaque valeur possible de 0\leq r\leq s. Un tableur Excel peut également être utile ici.
