Naive Bayes 분모 설명

Aug 21 2020

해결 된 이전 게시물을보고 후속 조치를 취했지만 평판이 50 미만이기 때문에 댓글을 달 수 없었습니다. 본질적으로 Naive Bayes에서 분모를 계산하는 데 관심이 있습니다.

이제 Naive Bayes의 기능이 독립적 인 것으로 간주되므로 다음을 계산할 수 있음을 이해합니다. $p(x) = p(x_{1})p(x_{2})...p(x_{n})$ 아니면이 공식을 사용해야할까요? $$p(\mathbf{x}) = \sum_k p(C_k) \ p(\mathbf{x} \mid C_k)$$ 조건부 독립 가정으로$$ p(\mathbf{x} \mid C_k) = \Pi_{i} \, p(x_i \mid C_k) $$

내 질문은 두 가지 계산 방법이 동일한 p (x)를 제공합니까?

원래 질문 링크 : https://datascience.stackexchange.com/posts/69699/edi

편집 ** : 죄송합니다. 기능에 완전한 독립성이 아니라 조건부 독립성이 있다고 생각합니다. 따라서 사용하는 것은 올바르지 않습니다$p(x) = p(x_{1})p(x_{2})...p(x_{n})$?

마지막으로, 나는 우리의 확률을 찾기 위해 실제로 분모가 필요하지 않지만 호기심에서 묻는 것을 이해합니다.

답변

1 Erwan Aug 21 2020 at 05:24

계산 방법 $p(x)$ 실제로 :

$$p(x) = \sum_k p(C_k) \ p(x| C_k)$$

일반적으로 계산해야하기 때문에 $p(C_k,x)$ (분자) 모든 $k$,이 모든 것을 합산하기에 충분히 간단합니다. $k$가치. 실제로 제품을 사용하는 것은 잘못된 것입니다.

마지막으로, 나는 우리의 확률을 찾기 위해 실제로 분모가 필요하지 않지만 호기심에서 묻는 것을 이해합니다.

한계 계산 $p(x)$ 가장 가능성이 높은 클래스를 찾기 위해 필요하지 않습니다. $C_k$ 때문에:

$$argmax_k(\{ p(C_k|x) \}) = argmax_k(\{ p(C_k,x) \})$$

그러나 실제로 사후 확률을 찾는 데 필요합니다. $p(C_k | x)$, 그래서 분모를 계산하는 것이 종종 유용합니다. $p(x)$ 얻기 위해 $p(C_k | x)$, 특히 실제 확률을 출력하려는 ​​경우.