Sfida: Ottimizzazione degli Iperparametri con RandomizedSearchCV
RandomizedSearchCV funziona come GridSearchCV, ma invece di verificare tutte le combinazioni di iperparametri, valuta un sottoinsieme casuale.
Nell'esempio seguente, la griglia contiene 100 combinazioni. GridSearchCV le testa tutte, mentre RandomizedSearchCV può campionare, ad esempio, 20 — controllato da n_iter. Questo rende la regolazione più veloce, trovando solitamente un punteggio vicino al migliore.
Swipe to start coding
Si dispone di un dataset di pinguini pre-elaborato. Ottimizzare un KNeighborsClassifier utilizzando entrambi i metodi di ricerca:
- Creare
param_gridcon valori pern_neighbors,weightsep. - Inizializzare
RandomizedSearchCV(..., n_iter=20). - Inizializzare
GridSearchCVcon la stessa griglia. - Addestrare entrambe le ricerche su
X, y. - Stampare il
.best_estimator_della grid search. - Stampare il
.best_score_della randomized search.
Soluzione
Prova a eseguire il codice più volte. RandomizedSearchCV può eguagliare il punteggio della grid search quando seleziona casualmente i migliori iperparametri.
Grazie per i tuoi commenti!
single
Chieda ad AI
Chieda ad AI
Chieda pure quello che desidera o provi una delle domande suggerite per iniziare la nostra conversazione
Can you explain how to choose the value for `n_iter` in RandomizedSearchCV?
What are the main advantages and disadvantages of using RandomizedSearchCV compared to GridSearchCV?
Can you give an example of when RandomizedSearchCV would be preferred over GridSearchCV?
Fantastico!
Completion tasso migliorato a 3.13
Sfida: Ottimizzazione degli Iperparametri con RandomizedSearchCV
Scorri per mostrare il menu
RandomizedSearchCV funziona come GridSearchCV, ma invece di verificare tutte le combinazioni di iperparametri, valuta un sottoinsieme casuale.
Nell'esempio seguente, la griglia contiene 100 combinazioni. GridSearchCV le testa tutte, mentre RandomizedSearchCV può campionare, ad esempio, 20 — controllato da n_iter. Questo rende la regolazione più veloce, trovando solitamente un punteggio vicino al migliore.
Swipe to start coding
Si dispone di un dataset di pinguini pre-elaborato. Ottimizzare un KNeighborsClassifier utilizzando entrambi i metodi di ricerca:
- Creare
param_gridcon valori pern_neighbors,weightsep. - Inizializzare
RandomizedSearchCV(..., n_iter=20). - Inizializzare
GridSearchCVcon la stessa griglia. - Addestrare entrambe le ricerche su
X, y. - Stampare il
.best_estimator_della grid search. - Stampare il
.best_score_della randomized search.
Soluzione
Prova a eseguire il codice più volte. RandomizedSearchCV può eguagliare il punteggio della grid search quando seleziona casualmente i migliori iperparametri.
Grazie per i tuoi commenti!
single