Probabilité Conditionnelle et Indépendance entre Événements

Probabilité Conditionnelle et Indépendance entre Événements

Probabilité Conditionnelle et Indépendance entre Événements

Résumé
Dans cette session, nous explorerons le concept de probabilité conditionnelle et l’interaction entre les événements. Nous allons acquérir les compétences nécessaires pour calculer des probabilités conditionnelles et déterminer la dépendance ou l’indépendance entre les événements. Nous appliquerons des exemples pratiques, comme l’étude de la prévalence des caries chez les consommateurs de sucreries, pour illustrer ces concepts. À la fin, vous aurez une compréhension claire de la manière d’appliquer la probabilité conditionnelle et d’analyser les événements dépendants et indépendants.


OBJECTIFS D’APPRENTISSAGE :
À la fin de ce cours, vous serez capable de :

  1. Comprendre la définition de la probabilité conditionnelle et sa relation avec l’intersection des événements et les probabilités individuelles.
  2. Identifier les associations positives et négatives entre les événements à partir de la comparaison des probabilités conditionnelles.
  3. Tester l’indépendance entre différents événements.

INDEX DES CONTENUS
LA PROBABILITÉ CONDITIONNELLE
DÉFINITION FORMELLE DE LA PROBABILITÉ CONDITIONNELLE
RELATION ENTRE ÉVÉNEMENTS
INDÉPENDANCE ENTRE ÉVÉNEMENTS ET COMPLÉMENTS D’ÉVÉNEMENTS




La Probabilité Conditionnelle

Quelle est la probabilité qu’un événement A se produise étant donné que B s’est déjà produit ? Le calcul de ce type de probabilités implique le concept de probabilité conditionnelle. Dans ce qui suit, nous étudierons la probabilité conditionnelle, sa définition et comment, à partir de cela, on peut inférer les relations de dépendance et d’indépendance entre les événements.

Supposons que nous voulions mesurer la prévalence des caries chez les consommateurs réguliers de sucreries. Si nous examinons un espace d’échantillonnage constitué de N personnes \Omega_N, nous verrons qu’il peut être divisé en 4 sous-ensembles :

  • A:=\left\{ {Personnes\;qui\;ont\;des\;caries}\right\}
  • A^c:=\left\{{Personnes\;qui\;n'ont\;PAS\;de\;caries}\right\}
  • B:=\left\{ {Personnes\;qui\;mangent\;des\;sucreries\;régulièrement}\right\}
  • B^c:=\left\{{Personnes\;qui\;ne\;mangent\;PAS\;de\;sucreries\;régulièrement}\right\}

À partir de cela, il est clair que A\cup A^c = \Omega_N et B\cup B^c = \Omega_N, mais A\cap B n’est pas nécessairement vide. Le scénario général est représenté par la figure suivante :

Probabilité Conditionnelle

Ainsi, si nous nous rappelons la définition de la probabilité comme la limite des fréquences relatives, nous pourrons dire que la probabilité qu’une personne ait des caries étant donné qu’il est confirmé qu’elle consomme des sucreries, P(A|B) sera :

P(A|B) =\displaystyle \frac{\#(A\cap B)}{\#B}

D’autre part, il est vrai que :

P(A\cap B) = \displaystyle \frac{\#(A\cap B)}{\#\Omega_N}

\#(A\cap B) = \#\Omega_N P(A\cap B)

 

P(B) =\displaystyle \frac{\#B}{\#\Omega_N}

\#B = \#\Omega_N P(B)

 

Ainsi, si nous remplaçons ces deux dernières expressions dans P(A|B), nous aurons :

P(A|B) = \displaystyle \frac{\#\Omega_N P(A\cap B)}{\#\Omega_N P(B)} = \frac{P(A\cap B)}{P(B)}

Ceci constitue la définition suivante :




Définition formelle de la probabilité conditionnelle

DÉFINITION : La probabilité de A, étant donné que B s’est produit, P(A|B), est définie par la relation

P(A|B) = \displaystyle \frac{P(A\cap B)}{P(B)}

Dans la pensée courante, il y a souvent une confusion entre P(A|B) et P(B|A). Pour clarifier cette différence, examinons un exemple basé sur un cas extrême : Notons que si la totalité des footballeurs ont deux jambes, seule une infime partie des personnes ayant deux jambes sont des footballeurs.




Relation entre événements

Continuant avec l’exemple de la prévalence des caries chez les gens qui consomment régulièrement des sucreries. Si la consommation de sucreries rend les personnes plus susceptibles d’avoir des caries, alors il devrait en résulter que

P(A|B) \gt P(A).Ici, nous avons que B renforce A et nous disons donc qu’il y a une association positive entre les événements.

En revanche, si la consommation de sucreries prévient les caries, alors il devrait en résulter que :

P(A|B) \lt P(A).Dans ce cas, B inhibe A et nous disons donc qu’il y a une association négative entre les événements.

Et s’il n’y avait aucune relation entre ces deux événements, ni positive ni négative, alors il devrait en résulter que :

P(A|B) = P(A).De là, on fait l’inférence qui est présentée dans la plupart des textes de probabilités comme une définition :

P(A|B) = P(A)
\equiv\displaystyle \frac{P(A\cap B)}{P(B)} = P(A)
\equivP(A\cap B)= P(A) P(B)

Ce raisonnement montre la relation entre la probabilité conditionnelle et l’indépendance des événements.

DÉFINITION :Étant donné deux événements A et B, ils sont dits indépendants s’ils satisfont la relation suivante :

\color{black}{P(A\cap B)= P(A) P(B)}




Indépendance entre événements et compléments d’événements

L’indépendance entre deux événements A et B est prouvée équivalente avec l’indépendance de A avec B^c, celle de A^c avec B, et celle de A^c avec B^c.

DÉMONSTRATION

(1)\{P(A\cap B) = P(A)P(B)\}\vdash P(A\cap B) = P(A)P(B); Présomption
(2)\{P(A\cap B) = P(A)P(B)\}\vdash P(A\cap B^c) = P(A\setminus B); parce que A\cap B^c := A\setminus B
(3) \{P(A\cap B) = P(A)P(B)\}\vdash P(A\setminus B)= P(A) - P(A\cap B); Voir le développement de l’exercice 2
(4)\{P(A\cap B) = P(A)P(B)\}\vdash P(A\cap B^c)= P(A) - P(A\cap B); De (2) et (3)
(5)\{P(A\cap B) = P(A)P(B)\}\vdash P(A\cap B^c)= P(A) - P(A)P(B); De (1) et (4)
\{P(A\cap B) = P(A)P(B)\}\vdash P(A\cap B^c)= P(A)(1 -P(B)); En factorisant par P(A)
\color{red}{\{P(A\cap B) = P(A)P(B)\}\vdash P(A\cap B^c)= P(A)P(B^c)}; Voir le développement de l’exercice 1

Cette dernière expression se lit comme suit : « Du fait que A et B sont indépendants, on en déduit que A et B^c le sont également.

La démonstration dans le sens inverse se fait de manière similaire.

(1)\{P(A\cap B^c) = P(A)P(B^c)\}\vdash P(A\cap B^c) = P(A)P(B^c); Présomption
\{P(A\cap B^c) = P(A)P(B^c)\}\vdash P(A\cap B^c) = P(A)(1 - P(B)); Voir le développement de l’exercice 1
\{P(A\cap B^c) = P(A)P(B^c)\}\vdash P(A\cap B^c) = P(A) - P(A)P(B); En réalisant le produit de la parenthèse sur le côté droit.
(2)\{P(A\cap B^c) = P(A)P(B^c)\}\vdash P(A\cap B^c) = P(A\setminus B); Parce que A\setminus B := A\cap B^c.
(3)\{P(A\cap B^c) = P(A)P(B^c)\}\vdash P(A\setminus B) = P(A) - P(A\cap B) ; Voir le développement de l’exercice 2
(4)\{P(A\cap B^c) = P(A)P(B^c)\}\vdash P(A) - P(A)P(B) = P(A) - P(A\cap B) ; De (1), (2) et (3)
\color{red}{\{P(A\cap B^c) = P(A)P(B^c)\}\vdash P(A)P(B) = P(A\cap B)} ; En éliminant les termes similaires

Et cette expression se lit comme suit : « Du fait que A et B^c sont indépendants, on en déduit que A et B le sont également.

Enfin, à partir de ces deux raisonnements, on a prouvé l’équivalence entre l’indépendance de A avec B et celle de A avec B^c.

Les autres équivalences prouvées peuvent être obtenues de manière similaire. Cela reste comme un défi pour le lecteur >:D

Vues : 1

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *