Logistische Regression in Python - Einschränkungen
Wie Sie aus dem obigen Beispiel gesehen haben, ist die Anwendung der logistischen Regression für maschinelles Lernen keine schwierige Aufgabe. Es hat jedoch seine eigenen Einschränkungen. Die logistische Regression kann eine große Anzahl von kategorialen Merkmalen nicht verarbeiten. In dem bisher diskutierten Beispiel haben wir die Anzahl der Features sehr stark reduziert.
Wenn diese Merkmale für unsere Vorhersage wichtig wären, wären wir gezwungen gewesen, sie einzubeziehen, aber dann würde uns die logistische Regression keine gute Genauigkeit liefern. Die logistische Regression ist auch anfällig für Überanpassungen. Es kann nicht auf ein nichtlineares Problem angewendet werden. Es funktioniert schlecht mit unabhängigen Variablen, die nicht mit dem Ziel korreliert sind und miteinander korreliert sind. Daher müssen Sie die Eignung der logistischen Regression für das zu lösende Problem sorgfältig prüfen.
Es gibt viele Bereiche des maschinellen Lernens, in denen andere Techniken entwickelt wurden. Um nur einige zu nennen, haben wir Algorithmen wie k-nächste Nachbarn (kNN), lineare Regression, Support Vector Machines (SVM), Entscheidungsbäume, naive Bayes und so weiter. Bevor Sie ein bestimmtes Modell fertigstellen, müssen Sie die Anwendbarkeit dieser verschiedenen Techniken auf das Problem bewerten, das wir zu lösen versuchen.