Scikit Learn - Redução de dimensionalidade usando PCA
Redução de dimensionalidade, um método de aprendizado de máquina não supervisionado é usado para reduzir o número de variáveis de recurso para cada amostra de dados selecionando um conjunto de recursos principais. A Análise de Componentes Principais (PCA) é um dos algoritmos populares para redução de dimensionalidade.
PCA Exato
Principal Component Analysis (PCA) é usado para redução de dimensionalidade linear usando Singular Value Decomposition(SVD) dos dados para projetá-los em um espaço dimensional inferior. Durante a decomposição usando PCA, os dados de entrada são centralizados, mas não escalados para cada recurso antes de aplicar o SVD.
A biblioteca de ML Scikit-learn fornece sklearn.decomposition.PCAmódulo que é implementado como um objeto transformador que aprende n componentes em seu método fit (). Ele também pode ser usado em novos dados para projetá-los nesses componentes.
Exemplo
O exemplo a seguir usará o módulo sklearn.decomposition.PCA para encontrar os 5 melhores componentes principais do conjunto de dados Pima Indians Diabetes.
from pandas import read_csv
from sklearn.decomposition import PCA
path = r'C:\Users\Leekha\Desktop\pima-indians-diabetes.csv'
names = ['preg', 'plas', 'pres', 'skin', 'test', 'mass', 'pedi', 'age', ‘class']
dataframe = read_csv(path, names = names)
array = dataframe.values
X = array[:,0:8]
Y = array[:,8]
pca = PCA(n_components = 5)
fit = pca.fit(X)
print(("Explained Variance: %s") % (fit.explained_variance_ratio_))
print(fit.components_)
Resultado
Explained Variance: [0.88854663 0.06159078 0.02579012 0.01308614 0.00744094]
[
[-2.02176587e-03 9.78115765e-02 1.60930503e-02 6.07566861e-029.93110844e-01 1.40108085e-02 5.37167919e-04 -3.56474430e-03]
[-2.26488861e-02 -9.72210040e-01 -1.41909330e-01 5.78614699e-029.46266913e-02 -4.69729766e-02 -8.16804621e-04 -1.40168181e-01]
[-2.24649003e-02 1.43428710e-01 -9.22467192e-01 -3.07013055e-012.09773019e-02 -1.32444542e-01 -6.39983017e-04 -1.25454310e-01]
[-4.90459604e-02 1.19830016e-01 -2.62742788e-01 8.84369380e-01-6.55503615e-02 1.92801728e-01 2.69908637e-03 -3.01024330e-01]
[ 1.51612874e-01 -8.79407680e-02 -2.32165009e-01 2.59973487e-01-1.72312241e-04 2.14744823e-02 1.64080684e-03 9.20504903e-01]
]
PCA incremental
Incremental Principal Component Analysis (IPCA) é usado para resolver a maior limitação da Análise de Componentes Principais (PCA) e que é o PCA suporta apenas processamento em lote, significa que todos os dados de entrada a serem processados devem caber na memória.
A biblioteca de ML Scikit-learn fornece sklearn.decomposition.IPCA módulo que torna possível implementar Out-of-Core PCA usando seu partial_fit método em blocos de dados buscados sequencialmente ou habilitando o uso de np.memmap, um arquivo mapeado na memória, sem carregar o arquivo inteiro na memória.
Da mesma forma que o PCA, durante a decomposição usando IPCA, os dados de entrada são centralizados, mas não escalados para cada recurso antes de aplicar o SVD.
Exemplo
O exemplo a seguir usará sklearn.decomposition.IPCA módulo no conjunto de dados de dígitos Sklearn.
from sklearn.datasets import load_digits
from sklearn.decomposition import IncrementalPCA
X, _ = load_digits(return_X_y = True)
transformer = IncrementalPCA(n_components = 10, batch_size = 100)
transformer.partial_fit(X[:100, :])
X_transformed = transformer.fit_transform(X)
X_transformed.shape
Resultado
(1797, 10)
Aqui, podemos caber parcialmente em lotes menores de dados (como fizemos em 100 por lote) ou você pode deixar o fit() função para dividir os dados em lotes.
Kernel PCA
A análise de componentes principais do kernel, uma extensão do PCA, atinge a redução da dimensionalidade não linear usando kernels. Suporta ambostransform and inverse_transform.
A biblioteca de ML Scikit-learn fornece sklearn.decomposition.KernelPCA módulo.
Exemplo
O exemplo a seguir usará sklearn.decomposition.KernelPCAmódulo no conjunto de dados de dígitos Sklearn. Estamos usando kernel sigmóide.
from sklearn.datasets import load_digits
from sklearn.decomposition import KernelPCA
X, _ = load_digits(return_X_y = True)
transformer = KernelPCA(n_components = 10, kernel = 'sigmoid')
X_transformed = transformer.fit_transform(X)
X_transformed.shape
Resultado
(1797, 10)
PCA usando SVD randomizado
A Análise de Componente Principal (PCA) usando SVD aleatório é usada para projetar dados para um espaço de dimensão inferior preservando a maior parte da variância, eliminando o vetor singular de componentes associados a valores singulares inferiores. Aqui osklearn.decomposition.PCA módulo com o parâmetro opcional svd_solver=’randomized’ vai ser muito útil.
Exemplo
O exemplo a seguir usará sklearn.decomposition.PCA módulo com o parâmetro opcional svd_solver = 'randomized' para encontrar os melhores 7 componentes principais do conjunto de dados Pima Indians Diabetes.
from pandas import read_csv
from sklearn.decomposition import PCA
path = r'C:\Users\Leekha\Desktop\pima-indians-diabetes.csv'
names = ['preg', 'plas', 'pres', 'skin', 'test', 'mass', 'pedi', 'age', 'class']
dataframe = read_csv(path, names = names)
array = dataframe.values
X = array[:,0:8]
Y = array[:,8]
pca = PCA(n_components = 7,svd_solver = 'randomized')
fit = pca.fit(X)
print(("Explained Variance: %s") % (fit.explained_variance_ratio_))
print(fit.components_)
Resultado
Explained Variance: [8.88546635e-01 6.15907837e-02 2.57901189e-02 1.30861374e-027.44093864e-03 3.02614919e-03 5.12444875e-04]
[
[-2.02176587e-03 9.78115765e-02 1.60930503e-02 6.07566861e-029.93110844e-01 1.40108085e-02 5.37167919e-04 -3.56474430e-03]
[-2.26488861e-02 -9.72210040e-01 -1.41909330e-01 5.78614699e-029.46266913e-02 -4.69729766e-02 -8.16804621e-04 -1.40168181e-01]
[-2.24649003e-02 1.43428710e-01 -9.22467192e-01 -3.07013055e-012.09773019e-02 -1.32444542e-01 -6.39983017e-04 -1.25454310e-01]
[-4.90459604e-02 1.19830016e-01 -2.62742788e-01 8.84369380e-01-6.55503615e-02 1.92801728e-01 2.69908637e-03 -3.01024330e-01]
[ 1.51612874e-01 -8.79407680e-02 -2.32165009e-01 2.59973487e-01-1.72312241e-04 2.14744823e-02 1.64080684e-03 9.20504903e-01]
[-5.04730888e-03 5.07391813e-02 7.56365525e-02 2.21363068e-01-6.13326472e-03 -9.70776708e-01 -2.02903702e-03 -1.51133239e-02]
[ 9.86672995e-01 8.83426114e-04 -1.22975947e-03 -3.76444746e-041.42307394e-03 -2.73046214e-03 -6.34402965e-03 -1.62555343e-01]
]