Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Apprendre Défi : Comparaison des Modèles | Comparer les Modèles
Classification Avec Python
course content

Contenu du cours

Classification Avec Python

Classification Avec Python

1. Classificateur K-NN
2. Régression Logistique
3. Arbre de Décision
4. Forêt Aléatoire
5. Comparer les Modèles

book
Défi : Comparaison des Modèles

Maintenant, nous allons comparer les modèles que nous avons appris sur un ensemble de données. Il s'agit d'un ensemble de données sur le cancer du sein. La cible est la colonne 'diagnosis' (1 – malin, 0 – bénin).

Nous appliquerons GridSearchCV à chaque modèle pour trouver les meilleurs paramètres. De plus, dans cette tâche, nous utiliserons la métrique recall pour l'évaluation car nous ne voulons pas avoir de faux négatifs. GridSearchCV peut choisir les paramètres en fonction de la métrique recall si vous définissez scoring='recall'.

Tâche

Swipe to start coding

La tâche consiste à construire tous les modèles que nous avons appris et à imprimer les meilleurs paramètres ainsi que le meilleur score de rappel de chaque modèle. Vous devrez remplir les noms de paramètres dans les dictionnaires param_grid.

  1. Pour le modèle k-NN, trouvez la meilleure valeur de n_neighbors parmi [3, 5, 7, 12].
  2. Pour la Régression Logistique, testez les valeurs [0.1, 1, 10] de C.
  3. Pour un Arbre de Décision, nous voulons configurer deux paramètres, max_depth et min_samples_leaf. Testez les valeurs [2, 4, 6, 10] pour max_depth et [1, 2, 4, 7] pour min_samples_leaf.
  4. Pour une Forêt Aléatoire, trouvez la meilleure valeur de max_depth (profondeur maximale de chaque Arbre) parmi [2, 4, 6] et le meilleur nombre d'arbres (n_estimators). Essayez les valeurs [20, 50, 100] pour le nombre d'arbres.

Solution

Note

Le code prend un certain temps à s'exécuter (moins d'une minute).

Switch to desktopPassez à un bureau pour une pratique réelleContinuez d'où vous êtes en utilisant l'une des options ci-dessous
Tout était clair ?

Comment pouvons-nous l'améliorer ?

Merci pour vos commentaires !

Section 5. Chapitre 3
toggle bottom row

book
Défi : Comparaison des Modèles

Maintenant, nous allons comparer les modèles que nous avons appris sur un ensemble de données. Il s'agit d'un ensemble de données sur le cancer du sein. La cible est la colonne 'diagnosis' (1 – malin, 0 – bénin).

Nous appliquerons GridSearchCV à chaque modèle pour trouver les meilleurs paramètres. De plus, dans cette tâche, nous utiliserons la métrique recall pour l'évaluation car nous ne voulons pas avoir de faux négatifs. GridSearchCV peut choisir les paramètres en fonction de la métrique recall si vous définissez scoring='recall'.

Tâche

Swipe to start coding

La tâche consiste à construire tous les modèles que nous avons appris et à imprimer les meilleurs paramètres ainsi que le meilleur score de rappel de chaque modèle. Vous devrez remplir les noms de paramètres dans les dictionnaires param_grid.

  1. Pour le modèle k-NN, trouvez la meilleure valeur de n_neighbors parmi [3, 5, 7, 12].
  2. Pour la Régression Logistique, testez les valeurs [0.1, 1, 10] de C.
  3. Pour un Arbre de Décision, nous voulons configurer deux paramètres, max_depth et min_samples_leaf. Testez les valeurs [2, 4, 6, 10] pour max_depth et [1, 2, 4, 7] pour min_samples_leaf.
  4. Pour une Forêt Aléatoire, trouvez la meilleure valeur de max_depth (profondeur maximale de chaque Arbre) parmi [2, 4, 6] et le meilleur nombre d'arbres (n_estimators). Essayez les valeurs [20, 50, 100] pour le nombre d'arbres.

Solution

Note

Le code prend un certain temps à s'exécuter (moins d'une minute).

Switch to desktopPassez à un bureau pour une pratique réelleContinuez d'où vous êtes en utilisant l'une des options ci-dessous
Tout était clair ?

Comment pouvons-nous l'améliorer ?

Merci pour vos commentaires !

Section 5. Chapitre 3
Switch to desktopPassez à un bureau pour une pratique réelleContinuez d'où vous êtes en utilisant l'une des options ci-dessous
We're sorry to hear that something went wrong. What happened?
some-alt