Statistik - Wahrscheinlichkeits-Bayes-Theorem

Eine der bedeutendsten Entwicklungen im Wahrscheinlichkeitsbereich war die Entwicklung der Bayes'schen Entscheidungstheorie, die sich bei Entscheidungen unter unsicheren Bedingungen als immense Hilfe erwiesen hat. Das Bayes-Theorem wurde von einem britischen Mathematiker, Rev. Thomas Bayes, entwickelt. Die nach dem Bayes-Theorem angegebene Wahrscheinlichkeit ist auch unter dem Namen inverse Wahrscheinlichkeit, hintere Wahrscheinlichkeit oder überarbeitete Wahrscheinlichkeit bekannt. Dieser Satz ermittelt die Wahrscheinlichkeit eines Ereignisses unter Berücksichtigung der gegebenen Beispielinformationen; daher der Name hintere Wahrscheinlichkeit. Der Bayes-Satz basiert auf der Formel der bedingten Wahrscheinlichkeit.

Bedingte Wahrscheinlichkeit des Ereignisses $ {A_1} $ bei gegebenem Ereignis $ {B} $ ist

$ {P (A_1 / B) = \ frac {P (A_1 \ und \ B)} {P (B)}} $

Ebenso ist die Wahrscheinlichkeit des Ereignisses $ {A_1} $ bei gegebenem Ereignis $ {B} $

$ {P (A_2 / B) = \ frac {P (A_2 \ und \ B)} {P (B)}} $

Wo

$ {P (B) = P (A_1 \ und \ B) + P (A_2 \ und \ B) \\ [7pt] P (B) = P (A_1) \ mal P (B / A_1) + P (A_2 ) \ times P (BA_2)} $
$ {P (A_1 / B)} $ kann umgeschrieben werden als
$ {P (A_1 / B) = \ frac {P (A_1) \ mal P (B / A_1)} {P (A_1)} \ mal P (B / A_1) + P (A_2) \ mal P (BA_2) } $

Daher ist die allgemeine Form des Bayes-Theorems

$ {P (A_i / B) = \ frac {P (A_i) \ mal P (B / A_i)} {\ sum_ {i = 1} ^ k P (A_i) \ mal P (B / A_i)}} $

Wobei $ {A_1} $, $ {A_2} $ ... $ {A_i} $ ... $ {A_n} $ aus n sich gegenseitig ausschließenden und erschöpfenden Ereignissen bestehen.