Klarifikasi Naive Bayes Denominator
Saya menemukan posting sebelumnya yang telah diselesaikan dan telah menindaklanjutinya tetapi saya tidak dapat berkomentar karena reputasi saya di bawah 50. Pada dasarnya saya tertarik untuk menghitung penyebut di Naive Bayes.

Sekarang saya mengerti bahwa fitur di Naive Bayes diasumsikan independen sehingga kami dapat menghitungnya $p(x) = p(x_{1})p(x_{2})...p(x_{n})$ atau apakah kita harus menggunakan rumus ini $$p(\mathbf{x}) = \sum_k p(C_k) \ p(\mathbf{x} \mid C_k)$$ dengan asumsi kemerdekaan bersyarat itu$$ p(\mathbf{x} \mid C_k) = \Pi_{i} \, p(x_i \mid C_k) $$
Pertanyaan saya adalah apakah kedua cara menghitung akan memberikan p (x) yang sama?
Tautkan ke pertanyaan asli: https://datascience.stackexchange.com/posts/69699/edi
Sunting **: Maaf, saya yakin fitur-fiturnya memiliki kebebasan bersyarat, daripada kebebasan penuh. Oleh karena itu tidak tepat untuk digunakan$p(x) = p(x_{1})p(x_{2})...p(x_{n})$?
Terakhir, saya mengerti bahwa kita sebenarnya tidak membutuhkan penyebut untuk menemukan probabilitas kita, tetapi saya bertanya karena ingin tahu.
Jawaban
Cara menghitung $p(x)$ memang:
$$p(x) = \sum_k p(C_k) \ p(x| C_k)$$
Karena secara umum orang perlu menghitung $p(C_k,x)$ (pembilang) untuk setiap $k$, cukup sederhana untuk menjumlahkan semua ini $k$nilai-nilai. Memang tidak benar menggunakan produk tersebut.
Terakhir, saya mengerti bahwa kita sebenarnya tidak membutuhkan penyebut untuk menemukan probabilitas kita, tetapi saya bertanya karena ingin tahu.
Menghitung marjinal $p(x)$ tidak diperlukan untuk menemukan kelas yang paling mungkin $C_k$ karena:
$$argmax_k(\{ p(C_k|x) \}) = argmax_k(\{ p(C_k,x) \})$$
Namun sebenarnya diperlukan untuk menemukan probabilitas posterior $p(C_k | x)$, itulah mengapa sering kali berguna untuk menghitung penyebut $p(x)$ untuk mendapatkan $p(C_k | x)$, terutama jika seseorang ingin menampilkan probabilitas yang sebenarnya.