Satz von Bayes und die zusammengesetzte Wahrscheinlichkeit

Satz von Bayes und die zusammengesetzte Wahrscheinlichkeit

Der Satz von Bayes und die zusammengesetzte Wahrscheinlichkeit

Zusammenfassung
In dieser Vorlesung wurden zwei grundlegende Konzepte der Wahrscheinlichkeit behandelt: die bedingte Wahrscheinlichkeit und die zusammengesetzte Wahrscheinlichkeit. Es wurde der Unterschied zwischen P(A|B) und P(B|A) hervorgehoben. Der Satz der zusammengesetzten Wahrscheinlichkeit besagt, dass die Wahrscheinlichkeit eines Ereignisses A als Summe der bedingten Wahrscheinlichkeiten P(A|B_i) multipliziert mit den Wahrscheinlichkeiten der Ereignisse B_i ausgedrückt werden kann. Anschließend wurde der Satz von Bayes vorgestellt, der es ermöglicht, die bedingte Wahrscheinlichkeit P(B_k|A) unter Verwendung der bedingten Wahrscheinlichkeit P(A|B_k), der Wahrscheinlichkeit P(B_k) und der Summe der bedingten Wahrscheinlichkeiten P(A|B_i), multipliziert mit den Wahrscheinlichkeiten der Ereignisse B_i, zu berechnen. Diese Konzepte sind grundlegend, um die bedingte Wahrscheinlichkeit in verschiedenen Kontexten zu verstehen und anzuwenden, und der Satz von Bayes stellt ein mächtiges Werkzeug dar, um Wahrscheinlichkeiten anhand neuer Informationen zu aktualisieren.


LERNZIELE:
Am Ende dieser Vorlesung wird der Studierende in der Lage sein:

  1. Das Konzept der bedingten Wahrscheinlichkeit zu verstehen und zwischen P(A|B) und P(B|A) zu unterscheiden.
  2. Die Wahrscheinlichkeit eines Ereignisses unter Verwendung zusammengesetzter Wahrscheinlichkeiten zu berechnen.
  3. Den Satz von Bayes herzuleiten.

INHALTSVERZEICHNIS
Die zusammengesetzte Wahrscheinlichkeit und bedingte Wahrscheinlichkeit
Der Satz von Bayes

In der vorherigen Vorlesung haben wir das Konzept der bedingten Wahrscheinlichkeit überprüft und auch klargestellt, dass man niemals eine bedingte Wahrscheinlichkeit der Form P(A|B) mit P(B|A). verwechseln darf. Obwohl im alltäglichen Sprachgebrauch die Bedingtheit verwirrend sein kann, handelt es sich mathematisch um zwei sehr unterschiedliche Dinge, die jedoch miteinander verbunden sind. Diese Beziehung wird durch den Satz von Bayes beschrieben, der auf dem Begriff der zusammengesetzten Wahrscheinlichkeit basiert.

Die zusammengesetzte Wahrscheinlichkeit und die bedingte Wahrscheinlichkeit

SATZ: Wenn A ein Ereignis ist und B_1, B_2, \cdots, B_n eine Menge von disjunkten Ereignissen bilden, sodass \displaystyle \bigcup_{i=1}^n B_i = \Omega, dann gilt:

\boxed{P(A) = \displaystyle \sum_{i=1}^n P(A|B_i) P(B_i)}

Diese Art, die Wahrscheinlichkeit von A zu schreiben, nennen wir zusammengesetzte Wahrscheinlichkeit von A.

BEWEIS:

(1)A ist ein Ereignis; Prämisse
(2)\displaystyle \bigcup_{i=1}^n B_i = \Omega; Prämisse
(3)B_1, \cdots, B_n sind alle paarweise disjunkt; Prämisse
(4)(A\cap B_i)\cap(A\cap B_j) = \varnothing, mit i\neq j und i,j\in \{1,2,3,\cdots n\}; Aus (1,2,3)
(5)\displaystyle \bigcup_{i=1}^n \left(A \cap B_i \right) = A; Aus (1,2,3)
(6)\displaystyle P(A) = P\left( \bigcup_{i=1}^n \left(A \cap B_i \right) \right) = \sum_{i=1}^n P\left( A \cap B_i \right); Aus (4,5)
(7) P(A|B_i) = \dfrac{P(A\cap B_i)}{P(B_i)}; Definition der bedingten Wahrscheinlichkeit
P(A\cap B_i) = P(A|B_i) P(B_i)
(8)\boxed{\displaystyle P(A) = \sum_{i=1}^n P(A|B_i) P(B_i)}; Aus (6,7)

Der Satz von Bayes

Im gleichen Kontext wie der vorherige Satz, gilt der folgende Satz:

SATZ:

P(B_k|A) = \dfrac{P(A|B_k)P(B_k)}{\displaystyle\sum_{i=1}^n P(A|B_i)P(B_i)} = \dfrac{P(A|B_k)P(B_k)}{P(A)}

BEWEIS: Wenn A ein beliebiges Ereignis ist und B_1, B_2, \cdots, B_n eine Kollektion disjunkter Ereignisse ist, sodass \displaystyle \bigcup_{i=1}^n B_i = \Omega, dann haben wir nach dem vorherigen Satz der zusammengesetzten Wahrscheinlichkeit:

P(A) = \displaystyle \sum_{i=1}^n P(A|B_i)P(B_i)

Nun, unter Verwendung der Tatsache, dass P(X\cap Y) = P(X|Y)P(Y), gilt, wenn wir Y=A und X=B_k einsetzen, erhalten wir

P(A) = \dfrac{P(B_k \cap A)}{P(B_k|A)}

Andererseits haben wir

P(A|B_k) = \dfrac{P(A\cap B_k)}{P(B_k)}

Woraus folgt

P(B_k \cap A) = P(A|B_k)P(B_k)

Wenn wir nun das Grüne in das Blaue einsetzen, erhalten wir

P(A) = \dfrac{P(A|B_k)P(B_k)}{P(B_k|A)}

Was gleichbedeutend damit ist zu sagen

\boxed{P(B_k|A) = \dfrac{P(A|B_k)P(B_k)}{P(A)}= \dfrac{P(A|B_k)P(B_k)}{\displaystyle \sum_{i=1}^n P(A|B_i) P(B_i)} }

Dies ist das, was zu zeigen war.

Views: 0

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert