Definieren Sie k-1-Cluster-Zentroide - SKlearn KMeans

Nov 19 2020

Ich führe eine binäre Klassifizierung eines teilweise beschrifteten Datensatzes durch. Ich habe eine zuverlässige Schätzung seiner Einsen, aber nicht seiner Nullen.

Aus der sklearn KMeans-Dokumentation:

init : {‘k-means++’, ‘random’ or an ndarray}
Method for initialization, defaults to ‘k-means++’:   
If an ndarray is passed, it should be of shape (n_clusters, n_features) and gives the initial centers.

Ich würde gerne ein Ndarray bestehen, aber ich habe nur 1 zuverlässigen Schwerpunkt, nicht 2.

Gibt es eine Möglichkeit, die Entropie zwischen den K-1-Zentroiden und dem K-ten zu maximieren? Gibt es alternativ eine Möglichkeit, K-1-Zentroide manuell zu initialisieren und K ++ für die verbleibenden zu verwenden?

================================================== =====

Verwandte Fragen:

Dies versucht, K-Zentroide mit n-1-Merkmalen zu definieren. (Ich möchte k-1 Zentroide mit n Merkmalen definieren).

Hier ist eine Beschreibung dessen, was ich will , aber es wurde von einem der Entwickler als Fehler interpretiert und ist "leicht zu implementieren [fähig]".

Antworten

SeanCarter Nov 20 2020 at 20:14

Ich bin mir ziemlich sicher, dass dies wie beabsichtigt funktioniert, aber bitte korrigieren Sie mich, wenn Sie einen Fehler entdecken. (von Geeks für Geeks zusammengeschustert ):


import sys

def distance(p1, p2): 
    return np.sum((p1 - p2)**2)


def find_remaining_centroid(data, known_centroids, k = 1): 
    ''' 
    initialized the centroids for K-means++ 
    inputs: 
        data - Numpy array containing the feature space
        known_centroid - Numpy array containing the location of one or multiple known centroids
        k - remaining centroids to be found
    '''
    n_points = data.shape[0]

    # Initialize centroids list
    if known_centroids.ndim > 1:
        centroids = [cent for cent in known_centroids]
    
    else:
        centroids = [np.array(known_centroids)]

    # Perform casting if necessary
    if isinstance(data, pd.DataFrame):
        data = np.array(data)
        
    # Add a randomly selected data point to the list  
    centroids.append(data[np.random.randint( 
            n_points), :])
    
    # Compute remaining k-1 centroids
    for c_id in range(k - 1):
        ## initialize a list to store distances of data 
        ## points from nearest centroid 
        dist = np.empty(n_points)

        for i in range(n_points):
            point = data[i, :] 
            d = sys.maxsize 

            ## compute distance of 'point' from each of the previously 
            ## selected centroid and store the minimum distance 
            for j in range(len(centroids)): 
                temp_dist = distance(point, centroids[j]) 
                d = min(d, temp_dist) 

            dist[i] = d

        ## select data point with maximum distance as our next centroid 
        next_centroid = data[np.argmax(dist), :] 
        centroids.append(next_centroid) 

        # Reinitialize distance array for next centroid
        dist = np.empty(n_points)
    

    
    return centroids[-k:]

Seine Verwendung:

# For finding a third centroid:
third_centroid = find_remaining_centroid(X_train, np.array([presence_seed, absence_seed]), k = 1)

# For finding the second centroid:
second_centroid = find_remaining_centroid(X_train, presence_seed, k = 1)

Wobei Anwesenheitssamen und Abwesenheitssamen bekannte Schwerpunktpositionen sind.