Python의 로지스틱 회귀-제한 사항
위의 예에서 보았 듯이 기계 학습에 로지스틱 회귀를 적용하는 것은 어려운 작업이 아닙니다. 그러나 자체 한계가 있습니다. 로지스틱 회귀는 많은 수의 범주 기능을 처리 할 수 없습니다. 지금까지 논의한 예에서는 기능의 수를 매우 많이 줄였습니다.
그러나 이러한 특성이 예측에서 중요하다면이를 포함해야했지만 로지스틱 회귀 분석이 좋은 정확도를 제공하지 못할 것입니다. 로지스틱 회귀는 또한 과적 합에 취약합니다. 비선형 문제에는 적용 할 수 없습니다. 목표와 상관 관계가없고 서로 상관 관계가있는 독립 변수의 경우 성능이 떨어집니다. 따라서 해결하려는 문제에 대한 로지스틱 회귀의 적합성을 신중하게 평가해야합니다.
다른 기술이 고안된 기계 학습 영역이 많이 있습니다. 몇 가지 예를 들자면 kNN (k-nearest neighbors), 선형 회귀, SVM (Support Vector Machine), 의사 결정 트리, Naive Bayes 등과 같은 알고리즘이 있습니다. 특정 모델을 마무리하기 전에 해결하려는 문제에 대한 이러한 다양한 기술의 적용 가능성을 평가해야합니다.