Scikit Learn - Modelowanie liniowe
Ten rozdział pomoże ci poznać modelowanie liniowe w Scikit-Learn. Zacznijmy od zrozumienia, czym jest regresja liniowa w Sklearn.
W poniższej tabeli wymieniono różne modele liniowe dostarczone przez Scikit-Learn -
Sr.No | Opis modelu |
---|---|
1 | Regresja liniowa Jest to jeden z najlepszych modeli statystycznych badający związek między zmienną zależną (Y) a danym zestawem zmiennych niezależnych (X). |
2 | Regresja logistyczna Regresja logistyczna, pomimo swojej nazwy, jest raczej algorytmem klasyfikacyjnym niż algorytmem regresji. Na podstawie danego zestawu zmiennych niezależnych służy do szacowania wartości dyskretnej (0 lub 1, tak / nie, prawda / fałsz). |
3 | Regresja grzbietu Regresja grzbietowa lub regularyzacja Tichonowa to technika regularyzacji, która wykonuje regularyzację L2. Modyfikuje funkcję straty, dodając karę (wielkość skurczu) równoważną do kwadratu wielkości współczynników. |
4 | Regresja Bayesian Ridge Regresja bayesowska pozwala naturalnemu mechanizmowi przetrwać niewystarczające lub słabo rozłożone dane poprzez sformułowanie regresji liniowej przy użyciu dystrybutorów prawdopodobieństwa, a nie oszacowań punktowych. |
5 | LASSO LASSO to technika regularyzacji, która wykonuje regularyzację L1. Modyfikuje funkcję straty, dodając karę (wielkość skurczu) równoważną zsumowaniu bezwzględnej wartości współczynników. |
6 | Wielozadaniowe LASSO Pozwala to dopasować problemy regresji wielorakiej, jednocześnie wymuszając, aby wybrane cechy były takie same dla wszystkich problemów regresji, zwanych także zadaniami. Sklearn dostarcza model liniowy o nazwie MultiTaskLasso, wyszkolony z mieszaną normą L1, L2 dla regularyzacji, który łącznie szacuje rzadkie współczynniki dla problemów regresji wielorakiej. |
7 | Elastyczna siatka Elastic-Net to regularyzowana metoda regresji, która liniowo łączy obie kary, tj. L1 i L2 metod regresji Lasso i Ridge. Jest to przydatne, gdy istnieje wiele skorelowanych funkcji. |
8 | Wielozadaniowy Elastic-Net Jest to model Elastic-Net, który pozwala dopasować wiele problemów regresji łącznie wymuszając, aby wybrane cechy były takie same dla wszystkich problemów regresji, zwanych także zadaniami |