Pythonでのロジスティック回帰-制限

上記の例からわかるように、機械学習にロジスティック回帰を適用することは難しい作業ではありません。ただし、独自の制限があります。ロジスティック回帰では、多数のカテゴリカル機能を処理できなくなります。これまでに説明した例では、機能の数を大幅に減らしました。

ただし、これらの機能が予測で重要である場合は、それらを含めることを余儀なくされますが、ロジスティック回帰では十分な精度が得られません。ロジスティック回帰も過剰適合に対して脆弱です。非線形問題には適用できません。ターゲットに相関しておらず、相互に相関している独立変数ではパフォーマンスが低下します。したがって、解決しようとしている問題に対するロジスティック回帰の適合性を慎重に評価する必要があります。

機械学習には、他の手法が考案された多くの分野があります。いくつか例を挙げると、k最近傍法(kNN)、線形回帰、サポートベクターマシン(SVM)、決定木、ナイーブベイズなどのアルゴリズムがあります。特定のモデルを完成させる前に、私たちが解決しようとしている問題に対するこれらのさまざまな手法の適用可能性を評価する必要があります。