¿Cómo dibujar los hiperplanos para SVM One-Versus-All?
Estaba tratando de dibujar los hiperplanos cuando se realizó SVM-OVA de la siguiente manera:
import matplotlib.pyplot as plt
import numpy as np
from sklearn.svm import SVC
x = np.array([[1,1.1],[1,2],[2,1]])
y = np.array([0,100,250])
classifier = OneVsRestClassifier(SVC(kernel='linear'))
Basado en la respuesta a esta pregunta Plot hyperplane Linear SVM python , escribí el siguiente código:
fig, ax = plt.subplots()
# create a mesh to plot in
x_min, x_max = x[:, 0].min() - 1, x[:, 0].max() + 1
y_min, y_max = x[:, 1].min() - 1, x[:, 1].max() + 1
xx2, yy2 = np.meshgrid(np.arange(x_min, x_max, .2),np.arange(y_min, y_max, .2))
Z = classifier.predict(np.c_[xx2.ravel(), yy2.ravel()])
Z = Z.reshape(xx2.shape)
ax.contourf(xx2, yy2, Z, cmap=plt.cm.winter, alpha=0.3)
ax.scatter(x[:, 0], x[:, 1], c=y, cmap=plt.cm.winter, s=25)
# First line: class1 vs (class2 U class3)
w = classifier.coef_[0]
a = -w[0] / w[1]
xx = np.linspace(-5, 5)
yy = a * xx - (classifier.intercept_[0]) / w[1]
ax.plot(xx,yy)
# Second line: class2 vs (class1 U class3)
w = classifier.coef_[1]
a = -w[0] / w[1]
xx = np.linspace(-5, 5)
yy = a * xx - (classifier.intercept_[1]) / w[1]
ax.plot(xx,yy)
# Third line: class 3 vs (class2 U class1)
w = classifier.coef_[2]
a = -w[0] / w[1]
xx = np.linspace(-5, 5)
yy = a * xx - (classifier.intercept_[2]) / w[1]
ax.plot(xx,yy)
Sin embargo, esto es lo que obtuve:

Las líneas son claramente incorrectas: en realidad, los coeficientes angulares parecen correctos, pero no las intersecciones. En particular, la línea naranja sería correcta si se traduce 0,5 hacia abajo, la verde si se traslada 0,5 a la izquierda y la azul si se traslada 1,5 hacia arriba.
¿Me equivoco al trazar las líneas o el clasificador no funciona correctamente debido a los pocos puntos de entrenamiento?
Respuestas
El problema es que el C
parámetro de SVC
es demasiado pequeño (por defecto 1.0
). Según esta publicación ,
Por el contrario, un valor muy pequeño de C hará que el optimizador busque un hiperplano de separación de margen más grande, incluso si ese hiperplano clasifica erróneamente más puntos.
Por tanto, la solución es utilizar una mucho más grande C
, por ejemplo1e5
import matplotlib.pyplot as plt
import numpy as np
from sklearn.svm import SVC
from sklearn.multiclass import OneVsRestClassifier
x = np.array([[1,1.1],[1,2],[2,1]])
y = np.array([0,100,250])
classifier = OneVsRestClassifier(SVC(C=1e5,kernel='linear'))
classifier.fit(x,y)
fig, ax = plt.subplots()
# create a mesh to plot in
x_min, x_max = x[:, 0].min() - 1, x[:, 0].max() + 1
y_min, y_max = x[:, 1].min() - 1, x[:, 1].max() + 1
xx2, yy2 = np.meshgrid(np.arange(x_min, x_max, .2),np.arange(y_min, y_max, .2))
Z = classifier.predict(np.c_[xx2.ravel(), yy2.ravel()])
Z = Z.reshape(xx2.shape)
ax.contourf(xx2, yy2, Z, cmap=plt.cm.winter, alpha=0.3)
ax.scatter(x[:, 0], x[:, 1], c=y, cmap=plt.cm.winter, s=25)
def reconstruct(w,b):
k = - w[0] / w[1]
b = - b[0] / w[1]
if k >= 0:
x0 = max((y_min-b)/k,x_min)
x1 = min((y_max-b)/k,x_max)
else:
x0 = max((y_max-b)/k,x_min)
x1 = min((y_min-b)/k,x_max)
if np.abs(x0) == np.inf: x0 = x_min
if np.abs(x1) == np.inf: x1 = x_max
xx = np.linspace(x0,x1)
yy = k*xx+b
return xx,yy
xx,yy = reconstruct(classifier.coef_[0],classifier.intercept_[0])
ax.plot(xx,yy,'r')
xx,yy = reconstruct(classifier.coef_[1],classifier.intercept_[1])
ax.plot(xx,yy,'g')
xx,yy = reconstruct(classifier.coef_[2],classifier.intercept_[2])
ax.plot(xx,yy,'b')
Esta vez, debido a que C
se adopta una mucho más grande , el resultado se ve mejor
