RechercheParGrilleCV
Pour améliorer les performances du modèle, il convient d'ajuster les hyperparamètres. Le principe est simple : tester différentes valeurs, calculer les scores de validation croisée, puis sélectionner celle ayant le score le plus élevé.
Ce processus peut être réalisé à l'aide de la classe GridSearchCV du module sklearn.model_selection.
GridSearchCV nécessite un modèle et une grille de paramètres (param_grid).
Exemple :
param_grid = {'n_neighbors': [1, 3, 5, 7]}
Après l'initialisation de GridSearchCV, utiliser .fit(X, y).
- Le meilleur modèle se trouve dans
.best_estimator_; - Son score de validation croisée est disponible dans
.best_score_.
12345678910111213import pandas as pd from sklearn.neighbors import KNeighborsClassifier from sklearn.model_selection import GridSearchCV df = pd.read_csv('https://codefinity-content-media.s3.eu-west-1.amazonaws.com/a65bbc96-309e-4df9-a790-a1eb8c815a1c/penguins_pipelined.csv') X, y = df.drop('species', axis=1), df['species'] param_grid = {'n_neighbors': [1,3,5,7,9]} grid_search = GridSearchCV(KNeighborsClassifier(), param_grid) grid_search.fit(X, y) print(grid_search.best_estimator_) print(grid_search.best_score_)
Après l'ajustement, GridSearchCV réentraîne automatiquement le meilleur estimateur sur l'ensemble complet des données.
L'objet grid_search devient le modèle final entraîné et peut être utilisé directement avec .predict() et .score().
12grid_search.fit(X, y) print(grid_search.score(X, y)) # training accuracy (not reliable for real evaluation)
Merci pour vos commentaires !
Demandez à l'IA
Demandez à l'IA
Posez n'importe quelle question ou essayez l'une des questions suggérées pour commencer notre discussion
Génial!
Completion taux amélioré à 3.13
RechercheParGrilleCV
Glissez pour afficher le menu
Pour améliorer les performances du modèle, il convient d'ajuster les hyperparamètres. Le principe est simple : tester différentes valeurs, calculer les scores de validation croisée, puis sélectionner celle ayant le score le plus élevé.
Ce processus peut être réalisé à l'aide de la classe GridSearchCV du module sklearn.model_selection.
GridSearchCV nécessite un modèle et une grille de paramètres (param_grid).
Exemple :
param_grid = {'n_neighbors': [1, 3, 5, 7]}
Après l'initialisation de GridSearchCV, utiliser .fit(X, y).
- Le meilleur modèle se trouve dans
.best_estimator_; - Son score de validation croisée est disponible dans
.best_score_.
12345678910111213import pandas as pd from sklearn.neighbors import KNeighborsClassifier from sklearn.model_selection import GridSearchCV df = pd.read_csv('https://codefinity-content-media.s3.eu-west-1.amazonaws.com/a65bbc96-309e-4df9-a790-a1eb8c815a1c/penguins_pipelined.csv') X, y = df.drop('species', axis=1), df['species'] param_grid = {'n_neighbors': [1,3,5,7,9]} grid_search = GridSearchCV(KNeighborsClassifier(), param_grid) grid_search.fit(X, y) print(grid_search.best_estimator_) print(grid_search.best_score_)
Après l'ajustement, GridSearchCV réentraîne automatiquement le meilleur estimateur sur l'ensemble complet des données.
L'objet grid_search devient le modèle final entraîné et peut être utilisé directement avec .predict() et .score().
12grid_search.fit(X, y) print(grid_search.score(X, y)) # training accuracy (not reliable for real evaluation)
Merci pour vos commentaires !