Teorema de Bayes e a Probabilidade Composta
Resumo
Nesta aula, foram abordados dois conceitos fundamentais em probabilidade: a probabilidade condicional e a probabilidade composta. Foi enfatizada a diferença entre P(A|B) e P(B|A). O Teorema da probabilidade composta estabelece que a probabilidade de um evento A pode ser expressa como a soma das probabilidades condicionais P(A|B_i) multiplicadas pelas probabilidades dos eventos B_i. Posteriormente, foi apresentado o Teorema de Bayes, que permite calcular a probabilidade condicional P(B_k|A) utilizando a probabilidade condicional P(A|B_k), a probabilidade P(B_k) e a soma das probabilidades condicionais P(A|B_i) multiplicadas pelas probabilidades dos eventos B_i. Esses conceitos são fundamentais para compreender e aplicar a probabilidade condicional em diversos contextos, e o Teorema de Bayes fornece uma ferramenta poderosa para atualizar probabilidades a partir de novas informações.
OBJETIVOS DE APRENDIZAGEM:
Ao finalizar esta aula, o aluno será capaz de:
- Compreender o conceito de probabilidade condicional e diferenciar entre P(A|B) e P(B|A).
- Calcular a probabilidade de um evento usando probabilidades compostas.
- Demonstrar a regra de Bayes.
ÍNDICE DE CONTEÚDOS
A Probabilidade Composta e a probabilidade condicional
O Teorema de Bayes
Na aula anterior, revisamos o conceito de probabilidade condicional e também esclarecemos que nunca se deve confundir uma probabilidade condicional da forma P(A|B) com P(B|A). Embora na linguagem cotidiana a condicionalidade possa ser confusa, matematicamente são duas coisas muito diferentes que, no entanto, estão relacionadas. Esta relação é descrita pelo Teorema de Bayes, que se baseia na noção de probabilidade composta para sua formulação.
A Probabilidade Composta e a probabilidade condicional
TEOREMA: Se A é um evento e B_1, B_2, \cdots, B_n formam um conjunto de eventos disjuntos tais que \displaystyle \bigcup_{i=1}^n B_i = \Omega, então se cumpre que:
\boxed{P(A) = \displaystyle \sum_{i=1}^n P(A|B_i) P(B_i)}
Esta forma de escrever a probabilidade de A é o que chamamos de Probabilidade Composta de A.
DEMONSTRAÇÃO:
| (1) | A é um Evento | ; Premissa |
| (2) | \displaystyle \bigcup_{i=1}^n B_i = \Omega | ; Premissa |
| (3) | B_1, \cdots, B_n são todos disjuntos entre si | ; Premissa |
| (4) | (A\cap B_i)\cap(A\cap B_j) = \varnothing, com i\neq j e i,j\in \{1,2,3,\cdots n\} | ; De (1,2,3) |
| (5) | \displaystyle \bigcup_{i=1}^n \left(A \cap B_i \right) = A | ; De (1,2,3) |
| (6) | \displaystyle P(A) = P\left( \bigcup_{i=1}^n \left(A \cap B_i \right) \right) = \sum_{i=1}^n P\left( A \cap B_i \right) | ; De (4,5) |
| (7) | P(A|B_i) = \dfrac{P(A\cap B_i)}{P(B_i)} | ; Definição de Probabilidade Condicional |
| P(A\cap B_i) = P(A|B_i) P(B_i) | ||
| (8) | \boxed{\displaystyle P(A) = \sum_{i=1}^n P(A|B_i) P(B_i)} | ; De (6,7) |
O Teorema de Bayes
No mesmo contexto que o teorema anterior, se cumpre o seguinte teorema:
TEOREMA:
P(B_k|A) = \dfrac{P(A|B_k)P(B_k)}{\displaystyle\sum_{i=1}^n P(A|B_i)P(B_i)} = \dfrac{P(A|B_k)P(B_k)}{P(A)}
DEMONSTRAÇÃO: Se A é um evento qualquer e B_1, B_2, \cdots, B_n é uma coleção de eventos disjuntos tais que \displaystyle \bigcup_{i=1}^n B_i = \Omega, pelo teorema anterior da probabilidade composta, temos que:
P(A) = \displaystyle \sum_{i=1}^n P(A|B_i)P(B_i)
Agora, usando o fato de que P(X\cap Y) = P(X|Y)P(Y), temos que se substituirmos Y=A e X=B_k, chegaremos a que
P(A) = \dfrac{P(B_k \cap A)}{P(B_k|A)}
Por outro lado, temos que
P(A|B_k) = \dfrac{P(A\cap B_k)}{P(B_k)}
De onde se infere que
P(B_k \cap A) = P(A|B_k)P(B_k)
Agora, se substituirmos o verde dentro do azul, teremos que
P(A) = \dfrac{P(A|B_k)P(B_k)}{P(B_k|A)}
O que é equivalente a dizer
\boxed{P(B_k|A) = \dfrac{P(A|B_k)P(B_k)}{P(A)}= \dfrac{P(A|B_k)P(B_k)}{\displaystyle \sum_{i=1}^n P(A|B_i) P(B_i)} }
Isto é o que se queria demonstrar.
