zum Directory-modus

Wahrscheinlichkeitsrechnung

Satz von Bayes

Wir betrachten einen Test, der Aussagen über einzelne untersuchte Exemplare der Gesamtheit geben soll. Beispielsweise eine Qualitätskontrolle in einer Firma, eine medizinische Diagnosemethode oder eine qualitative Analyse. Zur Vereinfachung beschränken wir uns zunächst auf eine reine ja/nein-Fragestellung.

Nun ist es mit den Methoden der Statistik oftmals (zumindest dann, wenn der betrachtete Test nicht der einzige verfügbare ist) möglich zu bestimmen, mit welcher Wahrscheinlichkeit das untersuchte Merkmal in der Gesamtheit vorliegt: Mit welcher Wahrscheinlichkeit ist das Produkt ab Werk defekt, ein beliebiger Mensch mit einer bestimmten Krankheit infiziert, eine Substanz in einer Probe enthalten (das ist natürlich im Praktikum an einer Hochschule so nicht möglich, wohl aber beispielsweise bei der Reihenuntersuchung von Bodenproben).

Leider sind alle Tests fehlerbehaftet; daher weiß man nach einem einzelnen Test nicht, ob die darauf beruhende Aussage nun richtig oder falsch ist. Man kann aber (mittels der Statistik) bestimmen, wie häufig ein Test ein falsches Resultat ergibt. Dabei muss getrennt untersucht werden, wie häufig ein positives Testergebnis eintritt, obwohl das untersuchte Merkmal nicht vorliegt, und wie häufig ein negatives Testergebnis trotz Vorliegen des untersuchten Merkmals eintritt.

Bayes untersuchte nun, mit welcher Wahrscheinlichkeit ein positives Testergebnis auch bedeutet, dass das Merkmal auch wirklich vorliegt. Dazu ist die Betrachtung des folgenden Baumdiagramms hilfreich.

Abb.1
Baumdiagramm eines zweistufigen Experiments mit bedingten Wahrscheinlichkeiten

In diesem Baumdiagramm ist die zweite Stufe des Experiments von der ersten abhängig: Ob das Testergebnis richtig ist, hängt davon ab, wie der Test ausging (es sei denn, die Fehlerwahrscheinlichkeiten sind gleich, aber das wäre zu einfach). Da wir die abhängigen Wahrscheinlichkeiten nicht kennen, können wir auch keine Pfadwahrscheinlichkeiten angeben. Aber das umgekehrte Baumdiagramm ist eigentlich schon vorhanden und im Folgenden dargestellt.

Abb.2
Umgekehrtes Baumdiagramm

Zur Ableitung der Bayes´schen Regel betrachten wir n paarweise disjunkte Ereignisse A 1 , A 2 , , A n , die den Ereignisraum Ω aufspannen

A 1 A 2 A n = Ω .

Nach dem Multiplikationssatz gilt für ein beliebiges Ereignis A

p ( A A i ) = p ( A i ) p ( A A i ) = p ( A ) p ( A i A ) ,

woraus man

p ( A i A ) = p ( A i ) p ( A A i ) p ( A ) .  erhält.

Nach dem Theorem der totalen Wahrscheinlichkeit ist

p ( A ) = i = 1 n p ( A i ) p ( A A i ) .

Daraus erhält man den Satz von Bayes (Bayes´sche Regel)

p ( A i A ) = p ( A i ) p ( A A i ) i = 1 n p ( A i ) p ( A A i ) .

Die Wahrscheinlichkeit p ( A i A ) nennt man die a-posteriori-Wahrscheinlichkeit des Ereignisses A i , und p ( A A i ) die a-priori-Wahrscheinlichkeit. Man kann die Ereignisse A i als Ursachen einer beobachteten Wirkung A auffassen. Die Bayes´sche Regel ermöglicht die Vertauschung der Bedingung einer Wahrscheinlichkeit, d.h. die Wahrscheinlichkeit dafür kann ausgerechnet werden, dass der Wirkung A eine der Ursachen A i zugrundeliegt.

Seite 4 von 4>