Teorema de Bayes y la Probabilidad Compuesta
Resumen
En esta clase se abordaron dos conceptos fundamentales en probabilidad: la probabilidad condicional y la probabilidad compuesta. Se enfatizó la diferencia entre P(A|B) y P(B|A). El Teorema de la probabilidad compuesta establece que la probabilidad de un evento A puede expresarse como la suma de las probabilidades condicionales P(A|B_i) multiplicadas por las probabilidades de los eventos B_i. Posteriormente, se presentó el Teorema de Bayes, que permite calcular la probabilidad condicional P(B_k|A) utilizando la probabilidad condicional P(A|B_k), la probabilidad P(B_k) y la suma de las probabilidades condicionales P(A|B_i) multiplicadas por las probabilidades de los eventos B_i. Estos conceptos son fundamentales para comprender y aplicar la probabilidad condicional en diversos contextos, y el Teorema de Bayes proporciona una herramienta poderosa para actualizar probabilidades a partir de nueva información.
OBJETIVOS DE APRENDIZAJE:
Al finalizar esta clase, el estudiante será capaz de:
- Comprender el concepto de probabilidad condicional y diferenciar entre P(A|B) y P(B|A).
- Calcular la probabilidad de un evento usando probabilidades compuestas.
- Demostrar la regla de Bayes
INDICE DE CONTENIDOS
La Probailidad Compuesta y probabilidad condicional
El Teorema de Bayes
En la clase anterior, revisamos el concepto de probabilidad condicional y también aclaramos que nunca se debe confundir una probabilidad condicional de la forma P(A|B) con P(B|A). Aunque en el lenguaje cotidiano la condicionalidad puede ser confusa, matemáticamente son dos cosas muy diferentes que, sin embargo, están relacionadas. Esta relación es descrita por el Teorema de Bayes, que se basa en la noción de probabilidad compuesta para su formulación.
La Probabilidad Compuesta y la probabilidad condicional
TEOREMA: Si A es un evento y B_1, B_2, \cdots, B_n forman un conjunto de eventos disjuntos tales que \displaystyle \bigcup_{i=1}^n B_i = \Omega, entonces se cumple que:
\boxed{P(A) = \displaystyle \sum_{i=1}^n P(A|B_i) P(B_i)}
Esta forma de escribir la probabilidad de A es lo que llamamos Probabilidad Compuesta de A.
DEMOSTRACIÓN:
| (1) | A es un Evento | ; Premisa |
| (2) | \displaystyle \bigcup_{i=1}^n B_i = \Omega | ; Premisa |
| (3) | B_1, \cdots, B_n son todos disjuntos entre sí | ; Premisa |
| (4) | (A\cap B_i)\cap(A\cap B_j) = \varnothing, con i\neq j e i,j\in \{1,2,3,\cdots n\} | ; De (1,2,3) |
| (5) | \displaystyle \bigcup_{i=1}^n \left(A \cap B_i \right) = A | ; De (1,2,3) |
| (6) | \displaystyle P(A) = P\left( \bigcup_{i=1}^n \left(A \cap B_i \right) \right) = \sum_{i=1}^n P\left( A \cap B_i \right) | ; De (4,5) |
| (7) | P(A|B_i) = \dfrac{P(A\cap B_i)}{P(B_i)} | ; Definición de Probabilidad Condicional |
| P(A\cap B_i) = P(A|B_i) P(B_i) | ||
| (8) | \boxed{\displaystyle P(A) = \sum_{i=1}^n P(A|B_i) P(B_i)} | ; De (6,7) |
El Teorema de Bayes
En el mismo contexto que el teorema anterior, se cumple el siguiente teorema:
TEOREMA:
P(B_k|A) = \dfrac{P(A|B_k)P(B_k)}{\displaystyle\sum_{i=1}^n P(A|B_i)P(B_i)} = \dfrac{P(A|B_k)P(B_k)}{P(A)}
DEMOSTRACIÓN: Si A es un evento cualquiera y B_1, B_2, \cdots, B_n es una colección de eventos disjuntos tales que \displaystyle \bigcup_{i=1}^n B_i = \Omega, por el teorema anterior de la probabilidad compuesta, tenemos que:
P(A) = \displaystyle \sum_{i=1}^n P(A|B_i)P(B_i)
Ahora, usando el hecho de que P(X\cap Y) = P(X|Y)P(Y), tenemos que si reemplazamos Y=A y X=B_k, llegaremos a que
P(A) = \dfrac{P(B_k \cap A)}{P(B_k|A)}
Por otro lado, tenemos que
P(A|B_k) = \dfrac{P(A\cap B_k)}{P(B_k)}
De donde se infiere que
P(B_k \cap A) = P(A|B_k)P(B_k)
Ahora, si reemplazamos lo verde dentro de lo azul, tendremos que
P(A) = \dfrac{P(A|B_k)P(B_k)}{P(B_k|A)}
Lo cual es equivalente a decir
\boxed{P(B_k|A) = \dfrac{P(A|B_k)P(B_k)}{P(A)}= \dfrac{P(A|B_k)P(B_k)}{\displaystyle \sum_{i=1}^n P(A|B_i) P(B_i)} }
Esto es lo que se quería demostrar.
