Contenu du cours
Classification Avec Python
Classification Avec Python
5. Comparer les Modèles
Résumé K-NN
D'après ce que nous avons appris, nous pouvons dire que k-NN est facile à implémenter mais nécessite un redimensionnement. Il a quelques particularités supplémentaires :
- k-NN ne nécessite pas d'entraînement.
Contrairement à de nombreux autres algorithmes, k-NN n'apprend rien pendant l'entraînement. Il a juste besoin de conserver les informations sur les coordonnées de tous les points de données.
Mais comme tous les calculs sont effectués pendant les prédictions, le temps de prédiction est plus long comparé à d'autres algorithmes ; - k-NN est un algorithme glouton.
Le modèle calcule les distances à chaque instance d'entraînement pour trouver les voisins. Ainsi, il peut devenir douloureusement lent pour les grands ensembles de données ; - Facile d'ajouter de nouvelles données d'entraînement.
Puisque le modèle n'a pas besoin d'entraînement, nous pouvons simplement ajouter de nouveaux points de données d'entraînement, et les prédictions s'ajusteront ; - La malédiction de la dimensionnalité.
Certains algorithmes ont vraiment du mal lorsque le nombre de dimensions (caractéristiques) est grand. Et malheureusement, k-NN a aussi ce problème. La distance entre deux points dans un espace de haute dimension tend à devenir similaire indépendamment des valeurs réelles des caractéristiques, il devient donc beaucoup plus difficile de déterminer si les instances sont similaires.
Voici donc un petit résumé de l'algorithme k-NN :
Avantages | Inconvénients |
---|---|
Pas de temps d'entraînement | Nécessite un redimensionnement des caractéristiques |
Facile d'ajouter de nouvelles données d'entraînement | Le temps de prédiction est élevé |
Ne fonctionne pas bien avec un grand nombre d'instances d'entraînement | |
Ne fonctionne pas bien avec un grand nombre de caractéristiques |
Tout était clair ?
Merci pour vos commentaires !
Section 1. Chapitre 8