Статистика - вероятностная теорема Байеса

Одним из наиболее значительных достижений в области вероятности стало развитие байесовской теории принятия решений, которая оказалась очень полезной при принятии решений в неопределенных условиях. Теорема Байеса была разработана британским математиком преподобным Томасом Байесом. Вероятность, данная в соответствии с теоремой Байеса, также известна как обратная вероятность, апостериорная вероятность или пересмотренная вероятность. Эта теорема определяет вероятность события, рассматривая данную выборочную информацию; отсюда и название апостериорной вероятности. Теорема Байеса основана на формуле условной вероятности.

условная вероятность события $ {A_1} $ для данного события $ {B} $ равна

$ {P (A_1 / B) = \ frac {P (A_1 \ and \ B)} {P (B)}} $

Аналогично вероятность события $ {A_1} $ для данного события $ {B} $ равна

$ {P (A_2 / B) = \ frac {P (A_2 \ и \ B)} {P (B)}} $

где

$ {P (B) = P (A_1 \ и \ B) + P (A_2 \ and \ B) \\ [7pt] P (B) = P (A_1) \ times P (B / A_1) + P (A_2 ) \ раз P (BA_2)} $
$ {P (A_1 / B)} $ можно переписать как
$ {P (A_1 / B) = \ frac {P (A_1) \ times P (B / A_1)} {P (A_1)} \ times P (B / A_1) + P (A_2) \ times P (BA_2) } $

Следовательно, общая форма теоремы Байеса такова:

$ {P (A_i / B) = \ frac {P (A_i) \ times P (B / A_i)} {\ sum_ {i = 1} ^ k P (A_i) \ times P (B / A_i)}} $

Где $ {A_1} $, $ {A_2} $ ... $ {A_i} $ ... $ {A_n} $ - набор из n взаимоисключающих и исчерпывающих событий.