Definieren Sie k-1-Cluster-Zentroide - SKlearn KMeans
Ich führe eine binäre Klassifizierung eines teilweise beschrifteten Datensatzes durch. Ich habe eine zuverlässige Schätzung seiner Einsen, aber nicht seiner Nullen.
Aus der sklearn KMeans-Dokumentation:
init : {‘k-means++’, ‘random’ or an ndarray}
Method for initialization, defaults to ‘k-means++’:
If an ndarray is passed, it should be of shape (n_clusters, n_features) and gives the initial centers.
Ich würde gerne ein Ndarray bestehen, aber ich habe nur 1 zuverlässigen Schwerpunkt, nicht 2.
Gibt es eine Möglichkeit, die Entropie zwischen den K-1-Zentroiden und dem K-ten zu maximieren? Gibt es alternativ eine Möglichkeit, K-1-Zentroide manuell zu initialisieren und K ++ für die verbleibenden zu verwenden?
================================================== =====
Verwandte Fragen:
Dies versucht, K-Zentroide mit n-1-Merkmalen zu definieren. (Ich möchte k-1 Zentroide mit n Merkmalen definieren).
Hier ist eine Beschreibung dessen, was ich will , aber es wurde von einem der Entwickler als Fehler interpretiert und ist "leicht zu implementieren [fähig]".
Antworten
Ich bin mir ziemlich sicher, dass dies wie beabsichtigt funktioniert, aber bitte korrigieren Sie mich, wenn Sie einen Fehler entdecken. (von Geeks für Geeks zusammengeschustert ):
import sys
def distance(p1, p2):
return np.sum((p1 - p2)**2)
def find_remaining_centroid(data, known_centroids, k = 1):
'''
initialized the centroids for K-means++
inputs:
data - Numpy array containing the feature space
known_centroid - Numpy array containing the location of one or multiple known centroids
k - remaining centroids to be found
'''
n_points = data.shape[0]
# Initialize centroids list
if known_centroids.ndim > 1:
centroids = [cent for cent in known_centroids]
else:
centroids = [np.array(known_centroids)]
# Perform casting if necessary
if isinstance(data, pd.DataFrame):
data = np.array(data)
# Add a randomly selected data point to the list
centroids.append(data[np.random.randint(
n_points), :])
# Compute remaining k-1 centroids
for c_id in range(k - 1):
## initialize a list to store distances of data
## points from nearest centroid
dist = np.empty(n_points)
for i in range(n_points):
point = data[i, :]
d = sys.maxsize
## compute distance of 'point' from each of the previously
## selected centroid and store the minimum distance
for j in range(len(centroids)):
temp_dist = distance(point, centroids[j])
d = min(d, temp_dist)
dist[i] = d
## select data point with maximum distance as our next centroid
next_centroid = data[np.argmax(dist), :]
centroids.append(next_centroid)
# Reinitialize distance array for next centroid
dist = np.empty(n_points)
return centroids[-k:]
Seine Verwendung:
# For finding a third centroid:
third_centroid = find_remaining_centroid(X_train, np.array([presence_seed, absence_seed]), k = 1)
# For finding the second centroid:
second_centroid = find_remaining_centroid(X_train, presence_seed, k = 1)
Wobei Anwesenheitssamen und Abwesenheitssamen bekannte Schwerpunktpositionen sind.