事後確率の合計で乗算された重みの説明
しましょう、 $P(\theta|x)$事後確率です。それは説明します$\textbf{how certain or confident we are that hypothesis $\ theta$ is true, given that}$ データを観察しました $x$。
事後確率の計算は、ベイズ統計の主な目標です。
$P(\theta)$ は事前確率であり、 $\textbf{how sure we were that}$ $\theta$ データを観察する前は本当でした $x$。
$P(x|\theta)$ 可能性です。 $\textbf{If you were to assume that $\ theta$ is true, this is the probability}$ あなたがデータを観察したであろうこと $x$。
$P(x)$周辺尤度です。これは、データを観察したであろう確率です。$x$、かどうか $\theta$ 本当かどうか。
そう、 $P (\theta|x) = \frac{P (\theta) P(x|\theta)}{P (x)}$
次の部分は同じテキストからの抜粋です-
ベイジアンフレームワークでは、予測は常に確率または(後の)確率分布の形式になります。それらは通常3段階で計算されます。
まず、パラメータの真の値を実際に知っているふりをして、その仮定に基づいて確率を計算します。
次に、パラメータのすべての可能な値に対してこれを行います $\theta$ (または、次の関数として確率を計算できます。 $\theta$)。
最後に、これらすべての確率を特定の方法で組み合わせて、予測にどれだけ自信があるかを示す1つの最終確率を取得します。
の真の価値を知っていたとしましょう $\theta$ だった $0.3$。そうすれば、明日正しいバスに乗る確率は$0.3$。の真の価値を知っていれば$\theta$ だった $0.4$、明日正しいバスに乗る確率は0.4だと思います。
問題は、真の価値が何であるかがわからないことです。事後分布しかありません。幸いなことに、確率の和の法則(積の法則と組み合わせて)は私たちを助けることができます。
明日はいいバスに乗れるかどうか興味があります。がある$11$起こり得るさまざまな方法。どちらか$\theta=0$ そして私は良いバスを手に入れます、または $\theta=0.1$ そして私は良いバスを手に入れます、または $\theta=0.2$そして私は良いバスを手に入れます、等々。これらの11の方法はすべて相互に排他的です。つまり、そのうちの1つだけが真になる可能性があります($\theta$ 実際には単一の番号です)。
数学的には、合計ルールを使用して、明日良いバスに乗る事後確率を取得できます。 $$P(\text{good bus tomorrow}|x) = \sum_{\theta} p(\theta|x) \times P(\text{good bus tomorrow}|\theta, x) $$$$= \sum_{\theta} p(\theta|x) \times \theta$$
これは、明日の良好なバスの合計確率(データが与えられた場合、つまり、事前分布ではなく事後分布を使用した場合)が
それぞれの可能性を通過する $\theta$ 値、
を仮定して確率を計算する $\theta$ あなたが検討している値は真であり、(データが与えられた)確率を掛けてこれ $\theta$ 値は実際には真です、
と合計。
この特定の問題では、 $P\text{(good bus tomorrow}|\theta, x) = θ$、たまたま明日の確率がの期待値である $\theta$ 事後分布を使用します。
小数点以下第3位まで、明日の確率の結果は次のとおりです。 $0.429$。興味深いことに、これは等しくありません$2/5 = 0.4$。
ページ上の問題 $26, 7$Brendon J.Brewerによるベイズ統計入門のテキストの一部は次のように書かれています-
質問
次に、事後確率(明日良いバスに乗る確率)を計算します $P(\text{good bus tomorrow}|x)$ なぜ作者は掛け算するのですか $p(\theta|x)$ 沿って $P(\text{good bus tomorrow}|\theta, x) $ の中に $\sum_{\theta}$?
私に、 $P(\text{good bus tomorrow}|x) = \sum_{\theta} p(\theta|x) $ 正しいので、私は何が欠けていますか?
このコメントで私は言われました、$p(\theta|x)$ それ自体が重さで、私はもっと混乱しましたので、説明してください、ありがとう。
回答
(1)エクストラコンディショニングを伴うベイズの法則。
あなたはベイズの法則に精通しています。
$$P(\theta|x) = \frac{P(\theta,x)}{P(x)}= \frac{P(x|\theta)}{P(x)}\cdot P(\theta)$$
直感的に、観察するチャンスは何ですか $\theta$ あなたの注意を試験にのみ制限しながら $x$ 発生しますか?
条件を追加するとどうなりますか $y$?観察するチャンスは何ですか$\theta$ 両方の試験に注意を向ける $x,y$ 発生する?
エクストラコンディショニングを伴うベイズの法則は次のようになります。
$$P(\theta|x,y) = \frac{P(x|\theta,y)}{P(x|y)}\cdot P(\theta|y)$$
(2)追加の条件付けを伴う乗算規則。
同様に、 $A$ そして $B$ 任意の2つのイベント、の同時確率 $AB$ によって与えられます :
$P(AB) = P(B|A)\cdot P(A)$
エクストラコンディショニングを追加すると、 $AB$ 条件付き $C$、は:
$P(AB|C) = P(B|AC)\cdot P(A|C)$
(3)エクストラコンディショニングによる全確率の法則。
イベントの場合 $A$ 依存します $n$ ばらばらのイベント $\theta_1,\theta_2,\ldots,\theta_n$ その後
$\begin{align} P(A)=\sum_{\theta}p(A|\theta)\cdot P(\theta) \end{align}$
エクストラコンディショニングを使用すると、全確率の法則は次のようになります。
$\begin{align} P(A|x)=\sum_{\theta}p(A|\theta,x)\cdot P(\theta|x) \end{align}$