Classification Multi-Classe
La classification multi-classes avec k-NN est aussi simple que la classification binaire. Il suffit de choisir la classe qui prédomine dans le voisinage.
Le KNeighborsClassifier effectue automatiquement une classification multi-classes si y possède plus de deux caractéristiques, donc aucune modification n'est nécessaire. La seule chose qui change est la variable y transmise à la méthode .fit().
Vous allez maintenant réaliser une classification multi-classes avec k-NN. Considérez le jeu de données suivant :
1234import pandas as pd df = pd.read_csv('https://codefinity-content-media.s3.eu-west-1.amazonaws.com/b71ff7ac-3932-41d2-a4d8-060e24b00129/starwars_multiple.csv') print(df.head())
C'est identique à l'exemple du chapitre précédent, mais cette fois la cible peut prendre trois valeurs :
- 0 : « Détesté » (note inférieure à 3/5) ;
- 1 : « Bof » (note entre 3/5 et 4/5) ;
- 2 : « Aimé » (note de 4/5 ou plus).
Swipe to start coding
Vous disposez du jeu de données d'évaluations Star Wars stocké sous forme de DataFrame dans la variable df.
- Initialiser un scaler approprié et le stocker dans la variable
scaler. - Calculer les paramètres de mise à l'échelle sur les données d'entraînement, appliquer la mise à l'échelle et stocker le résultat dans la variable
X_train. - Appliquer la mise à l'échelle aux données de test et stocker le résultat dans la variable
X_test. - Créer une instance de k-NN avec
13voisins, l'entraîner sur l'ensemble d'entraînement et la stocker dans la variableknn. - Effectuer des prédictions sur l'ensemble de test et les stocker dans la variable
y_pred.
Solution
Merci pour vos commentaires !
single
Demandez à l'IA
Demandez à l'IA
Posez n'importe quelle question ou essayez l'une des questions suggérées pour commencer notre discussion
Can you explain how to use KNeighborsClassifier for this dataset?
What do the features in the dataset represent?
How do I interpret the output of the classifier?
Awesome!
Completion rate improved to 4.17
Classification Multi-Classe
Glissez pour afficher le menu
La classification multi-classes avec k-NN est aussi simple que la classification binaire. Il suffit de choisir la classe qui prédomine dans le voisinage.
Le KNeighborsClassifier effectue automatiquement une classification multi-classes si y possède plus de deux caractéristiques, donc aucune modification n'est nécessaire. La seule chose qui change est la variable y transmise à la méthode .fit().
Vous allez maintenant réaliser une classification multi-classes avec k-NN. Considérez le jeu de données suivant :
1234import pandas as pd df = pd.read_csv('https://codefinity-content-media.s3.eu-west-1.amazonaws.com/b71ff7ac-3932-41d2-a4d8-060e24b00129/starwars_multiple.csv') print(df.head())
C'est identique à l'exemple du chapitre précédent, mais cette fois la cible peut prendre trois valeurs :
- 0 : « Détesté » (note inférieure à 3/5) ;
- 1 : « Bof » (note entre 3/5 et 4/5) ;
- 2 : « Aimé » (note de 4/5 ou plus).
Swipe to start coding
Vous disposez du jeu de données d'évaluations Star Wars stocké sous forme de DataFrame dans la variable df.
- Initialiser un scaler approprié et le stocker dans la variable
scaler. - Calculer les paramètres de mise à l'échelle sur les données d'entraînement, appliquer la mise à l'échelle et stocker le résultat dans la variable
X_train. - Appliquer la mise à l'échelle aux données de test et stocker le résultat dans la variable
X_test. - Créer une instance de k-NN avec
13voisins, l'entraîner sur l'ensemble d'entraînement et la stocker dans la variableknn. - Effectuer des prédictions sur l'ensemble de test et les stocker dans la variable
y_pred.
Solution
Merci pour vos commentaires !
single