Teorema de Bayes e a Probabilidade Composta

Teorema de Bayes e a Probabilidade Composta

Teorema de Bayes e a Probabilidade Composta

Resumo
Nesta aula, foram abordados dois conceitos fundamentais em probabilidade: a probabilidade condicional e a probabilidade composta. Foi enfatizada a diferença entre P(A|B) e P(B|A). O Teorema da probabilidade composta estabelece que a probabilidade de um evento A pode ser expressa como a soma das probabilidades condicionais P(A|B_i) multiplicadas pelas probabilidades dos eventos B_i. Posteriormente, foi apresentado o Teorema de Bayes, que permite calcular a probabilidade condicional P(B_k|A) utilizando a probabilidade condicional P(A|B_k), a probabilidade P(B_k) e a soma das probabilidades condicionais P(A|B_i) multiplicadas pelas probabilidades dos eventos B_i. Esses conceitos são fundamentais para compreender e aplicar a probabilidade condicional em diversos contextos, e o Teorema de Bayes fornece uma ferramenta poderosa para atualizar probabilidades a partir de novas informações.


OBJETIVOS DE APRENDIZAGEM:
Ao finalizar esta aula, o aluno será capaz de:

  1. Compreender o conceito de probabilidade condicional e diferenciar entre P(A|B) e P(B|A).
  2. Calcular a probabilidade de um evento usando probabilidades compostas.
  3. Demonstrar a regra de Bayes.

ÍNDICE DE CONTEÚDOS
A Probabilidade Composta e a probabilidade condicional
O Teorema de Bayes

Na aula anterior, revisamos o conceito de probabilidade condicional e também esclarecemos que nunca se deve confundir uma probabilidade condicional da forma P(A|B) com P(B|A). Embora na linguagem cotidiana a condicionalidade possa ser confusa, matematicamente são duas coisas muito diferentes que, no entanto, estão relacionadas. Esta relação é descrita pelo Teorema de Bayes, que se baseia na noção de probabilidade composta para sua formulação.

A Probabilidade Composta e a probabilidade condicional

TEOREMA: Se A é um evento e B_1, B_2, \cdots, B_n formam um conjunto de eventos disjuntos tais que \displaystyle \bigcup_{i=1}^n B_i = \Omega, então se cumpre que:

\boxed{P(A) = \displaystyle \sum_{i=1}^n P(A|B_i) P(B_i)}

Esta forma de escrever a probabilidade de A é o que chamamos de Probabilidade Composta de A.

DEMONSTRAÇÃO:

(1)A é um Evento; Premissa
(2)\displaystyle \bigcup_{i=1}^n B_i = \Omega; Premissa
(3)B_1, \cdots, B_n são todos disjuntos entre si; Premissa
(4)(A\cap B_i)\cap(A\cap B_j) = \varnothing, com i\neq j e i,j\in \{1,2,3,\cdots n\}; De (1,2,3)
(5)\displaystyle \bigcup_{i=1}^n \left(A \cap B_i \right) = A; De (1,2,3)
(6)\displaystyle P(A) = P\left( \bigcup_{i=1}^n \left(A \cap B_i \right) \right) = \sum_{i=1}^n P\left( A \cap B_i \right); De (4,5)
(7) P(A|B_i) = \dfrac{P(A\cap B_i)}{P(B_i)}; Definição de Probabilidade Condicional
P(A\cap B_i) = P(A|B_i) P(B_i)
(8)\boxed{\displaystyle P(A) = \sum_{i=1}^n P(A|B_i) P(B_i)}; De (6,7)

O Teorema de Bayes

No mesmo contexto que o teorema anterior, se cumpre o seguinte teorema:

TEOREMA:

P(B_k|A) = \dfrac{P(A|B_k)P(B_k)}{\displaystyle\sum_{i=1}^n P(A|B_i)P(B_i)} = \dfrac{P(A|B_k)P(B_k)}{P(A)}

DEMONSTRAÇÃO: Se A é um evento qualquer e B_1, B_2, \cdots, B_n é uma coleção de eventos disjuntos tais que \displaystyle \bigcup_{i=1}^n B_i = \Omega, pelo teorema anterior da probabilidade composta, temos que:

P(A) = \displaystyle \sum_{i=1}^n P(A|B_i)P(B_i)

Agora, usando o fato de que P(X\cap Y) = P(X|Y)P(Y), temos que se substituirmos Y=A e X=B_k, chegaremos a que

P(A) = \dfrac{P(B_k \cap A)}{P(B_k|A)}

Por outro lado, temos que

P(A|B_k) = \dfrac{P(A\cap B_k)}{P(B_k)}

De onde se infere que

P(B_k \cap A) = P(A|B_k)P(B_k)

Agora, se substituirmos o verde dentro do azul, teremos que

P(A) = \dfrac{P(A|B_k)P(B_k)}{P(B_k|A)}

O que é equivalente a dizer

\boxed{P(B_k|A) = \dfrac{P(A|B_k)P(B_k)}{P(A)}= \dfrac{P(A|B_k)P(B_k)}{\displaystyle \sum_{i=1}^n P(A|B_i) P(B_i)} }

Isto é o que se queria demonstrar.

Visualizações: 0

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *