Classification Multi-Classes
La classification multi-classes avec k-NN est aussi simple que la classification binaire. Nous choisissons simplement la classe qui prévaut dans le voisinage.
Le KNeighborsClassifier
effectue automatiquement une classification multi-classes si y
a plus de deux caractéristiques, donc vous n'avez pas besoin de changer quoi que ce soit. La seule chose qui change est la variable y
fournie à la méthode .fit()
.
Maintenant, vous allez effectuer une classification multi-classes avec k-NN.
Considérez le jeu de données suivant :
1234import pandas as pd df = pd.read_csv('https://codefinity-content-media.s3.eu-west-1.amazonaws.com/b71ff7ac-3932-41d2-a4d8-060e24b00129/starwars_multiple.csv') print(df.head())
C'est la même chose que dans l'exemple du chapitre précédent, mais maintenant la cible peut prendre trois valeurs :
- 0 – "Détesté" (la note est inférieure à 3/5);
- 1 – "Bof" (la note est entre 3/5 et 4/5);
- 2 – "Aimé" (la note est de 4/5 ou plus).
Passons à la classification ! Eh bien, attendez, voici le rappel des classes que vous allez utiliser.
Et maintenant, passons à la classification !
Swipe to start coding
Effectuez une classification en utilisant le KNeighborsClassifier
avec n_neighbors
égal à 13
.
- Importez le
KNeighborsClassifier
. - Utilisez la classe appropriée pour mettre à l'échelle les données.
- Mettez à l'échelle les données en utilisant
.fit_transform()
pour les données d'entraînement et.transform()
pour les nouvelles instances. - Créez l'objet
KNeighborsClassifier
et fournissez-luiX_scaled
ety
. - Prédisez les classes pour les nouvelles instances (
X_new_scaled
)
Une fois que vous avez terminé cette tâche, cliquez sur le bouton sous le code pour vérifier votre solution.
Solution
Merci pour vos commentaires !
single
Demandez à l'IA
Demandez à l'IA
Posez n'importe quelle question ou essayez l'une des questions suggérées pour commencer notre discussion
Résumer ce chapitre
Expliquer le code dans file
Expliquer pourquoi file ne résout pas la tâche
Awesome!
Completion rate improved to 4.17
Classification Multi-Classes
Glissez pour afficher le menu
La classification multi-classes avec k-NN est aussi simple que la classification binaire. Nous choisissons simplement la classe qui prévaut dans le voisinage.
Le KNeighborsClassifier
effectue automatiquement une classification multi-classes si y
a plus de deux caractéristiques, donc vous n'avez pas besoin de changer quoi que ce soit. La seule chose qui change est la variable y
fournie à la méthode .fit()
.
Maintenant, vous allez effectuer une classification multi-classes avec k-NN.
Considérez le jeu de données suivant :
1234import pandas as pd df = pd.read_csv('https://codefinity-content-media.s3.eu-west-1.amazonaws.com/b71ff7ac-3932-41d2-a4d8-060e24b00129/starwars_multiple.csv') print(df.head())
C'est la même chose que dans l'exemple du chapitre précédent, mais maintenant la cible peut prendre trois valeurs :
- 0 – "Détesté" (la note est inférieure à 3/5);
- 1 – "Bof" (la note est entre 3/5 et 4/5);
- 2 – "Aimé" (la note est de 4/5 ou plus).
Passons à la classification ! Eh bien, attendez, voici le rappel des classes que vous allez utiliser.
Et maintenant, passons à la classification !
Swipe to start coding
Effectuez une classification en utilisant le KNeighborsClassifier
avec n_neighbors
égal à 13
.
- Importez le
KNeighborsClassifier
. - Utilisez la classe appropriée pour mettre à l'échelle les données.
- Mettez à l'échelle les données en utilisant
.fit_transform()
pour les données d'entraînement et.transform()
pour les nouvelles instances. - Créez l'objet
KNeighborsClassifier
et fournissez-luiX_scaled
ety
. - Prédisez les classes pour les nouvelles instances (
X_new_scaled
)
Une fois que vous avez terminé cette tâche, cliquez sur le bouton sous le code pour vérifier votre solution.
Solution
Merci pour vos commentaires !
Awesome!
Completion rate improved to 4.17single