Qu'est-ce que K-Nearest Neighbor (KNN) ?

Jun 17 2022
Une introduction aux algorithmes d'apprentissage automatique
L'algorithme K-Nearest Neighbor (KNN) est un modèle peuplier et relève de l'apprentissage supervisé et il peut être utilisé pour résoudre à la fois des problèmes de classification et de régression. Dans cet article, je vous donnerais une explication détaillée et le fonctionnement de ce modèle.

L'algorithme K-Nearest Neighbor (KNN) est un modèle peuplier et relève de l' apprentissage supervisé et il peut être utilisé pour résoudre à la fois des problèmes de classification et de régression .

Dans cet article, je vous donnerais une explication détaillée et le fonctionnement de ce modèle .

Qu'est-ce que K-Nearest Neighbor (KNN) ?

K-Nearest Neighbor est l'un des algorithmes d'apprentissage automatique les plus simples basés sur la technique d'apprentissage supervisé . L'algorithme KNN suppose la similitude entre les nouvelles données et les données disponibles et place le nouveau cas dans la catégorie la plus similaire aux catégories disponibles .

Comment fonctionne KNN pour les problèmes de classification ?

imaginez que nous avons des données ressemblant à ceci et dans ces données données, nous avons deux types de valeurs dans notre graphique, c'est-à-dire le vert et le jaune

maintenant disons que nous avons un nouveau point et nous devons prédire sa valeur selon qu'il viendra dans la catégorie verte ou s'il viendra dans la catégorie jaune

Nous allons maintenant définir K, K étant le nombre de voisins que nous examinons ; dans ce cas, K=5 , ce qui implique que le nouveau point ou point bleu verra 5 plus proches voisins, indiquant qu'il verra la catégorie des 5 points les plus proches , ce qui indique que le point appartient à cette catégorie .

ici, nous voyons que les 5 points les plus proches du point sont 3 jaunes et 2 bleus , donc le point est plus susceptible d'être un jaune

Comment fonctionne KNN pour les problèmes de régression ?

imaginez maintenant que nous avons un ensemble de données comme celui-ci et dans cet ensemble de données, nous devons trouver la valeur de l' étoile

maintenant nous allons prendre la valeur de K ici je prends 3 et il trouvera maintenant la 3 valeur la plus proche et donc les valeurs sont 55, 50 et 51 et prendra la moyenne pour trouver la valeur du point

Comment calcule-t-on la distance entre les points ?

pour calculer la distance entre deux points, nous trouverons la distance euclidienne entre le point la formule pour calculer la distance euclidienne est

D²=(X2²- X1¹)+(Y2²-Y1²)

en racine carrée des deux côtés, nous obtiendrons la valeur de D

Comment sélectionner la meilleure valeur pour K

tout le fonctionnement du modèle dépend de la valeur de K if. La valeur du K est très importante. voici quelques techniques qui peuvent vous aider à déterminer la valeur de K.

  • tout d'abord il n'y a pas de valeur universelle de K
  • tout d'abord la valeur de K doit être une valeur impaire
  • la valeur de K ne doit pas être inférieure ou supérieure
  • frappez et essayez toujours plus de valeurs de K pour être sûr et obtenir une meilleure précision

donc j'espère qu'aujourd'hui vous avez une bonne compréhension de K-Nearest Neighbor (KNN) dans un proche avenir, je ferais plus d'articles dans lesquels j'expliquerai plus de modèles et je ferais un article pour faire implémenter KNN avec le code source .