Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Impara Sfida: Ottimizzazione degli Iperparametri con RandomizedSearchCV | Modellazione
Introduzione al Machine Learning con Python

bookSfida: Ottimizzazione degli Iperparametri con RandomizedSearchCV

RandomizedSearchCV funziona come GridSearchCV, ma invece di verificare tutte le combinazioni di iperparametri, valuta un sottoinsieme casuale. Nell'esempio seguente, la griglia contiene 100 combinazioni. GridSearchCV le testa tutte, mentre RandomizedSearchCV può campionare, ad esempio, 20 — controllato da n_iter. Questo rende la regolazione più veloce, trovando solitamente un punteggio vicino al migliore.

Compito

Swipe to start coding

Si dispone di un dataset di pinguini pre-elaborato. Ottimizzare un KNeighborsClassifier utilizzando entrambi i metodi di ricerca:

  1. Creare param_grid con valori per n_neighbors, weights e p.
  2. Inizializzare RandomizedSearchCV(..., n_iter=20).
  3. Inizializzare GridSearchCV con la stessa griglia.
  4. Addestrare entrambe le ricerche su X, y.
  5. Stampare il .best_estimator_ della grid search.
  6. Stampare il .best_score_ della randomized search.

Soluzione

Note
Nota

Prova a eseguire il codice più volte. RandomizedSearchCV può eguagliare il punteggio della grid search quando seleziona casualmente i migliori iperparametri.

Tutto è chiaro?

Come possiamo migliorarlo?

Grazie per i tuoi commenti!

Sezione 4. Capitolo 8
single

single

Chieda ad AI

expand

Chieda ad AI

ChatGPT

Chieda pure quello che desidera o provi una delle domande suggerite per iniziare la nostra conversazione

Suggested prompts:

Can you explain how to choose the value for `n_iter` in RandomizedSearchCV?

What are the main advantages and disadvantages of using RandomizedSearchCV compared to GridSearchCV?

Can you give an example of when RandomizedSearchCV would be preferred over GridSearchCV?

close

bookSfida: Ottimizzazione degli Iperparametri con RandomizedSearchCV

Scorri per mostrare il menu

RandomizedSearchCV funziona come GridSearchCV, ma invece di verificare tutte le combinazioni di iperparametri, valuta un sottoinsieme casuale. Nell'esempio seguente, la griglia contiene 100 combinazioni. GridSearchCV le testa tutte, mentre RandomizedSearchCV può campionare, ad esempio, 20 — controllato da n_iter. Questo rende la regolazione più veloce, trovando solitamente un punteggio vicino al migliore.

Compito

Swipe to start coding

Si dispone di un dataset di pinguini pre-elaborato. Ottimizzare un KNeighborsClassifier utilizzando entrambi i metodi di ricerca:

  1. Creare param_grid con valori per n_neighbors, weights e p.
  2. Inizializzare RandomizedSearchCV(..., n_iter=20).
  3. Inizializzare GridSearchCV con la stessa griglia.
  4. Addestrare entrambe le ricerche su X, y.
  5. Stampare il .best_estimator_ della grid search.
  6. Stampare il .best_score_ della randomized search.

Soluzione

Note
Nota

Prova a eseguire il codice più volte. RandomizedSearchCV può eguagliare il punteggio della grid search quando seleziona casualmente i migliori iperparametri.

Switch to desktopCambia al desktop per esercitarti nel mondo realeContinua da dove ti trovi utilizzando una delle opzioni seguenti
Tutto è chiaro?

Come possiamo migliorarlo?

Grazie per i tuoi commenti!

Sezione 4. Capitolo 8
single

single

some-alt