Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Lære Udfordring: Justering af Hyperparametre med RandomizedSearchCV | Modellering
Practice
Projects
Quizzes & Challenges
Quizzes
Challenges
/
Introduktion til Maskinlæring med Python

bookUdfordring: Justering af Hyperparametre med RandomizedSearchCV

RandomizedSearchCV fungerer som GridSearchCV, men i stedet for at afprøve alle kombinationer af hyperparametre, evaluerer den et tilfældigt udsnit. I eksemplet nedenfor indeholder gitteret 100 kombinationer. GridSearchCV tester dem alle, mens RandomizedSearchCV for eksempel kan udvælge 20 — styret af n_iter. Dette gør tuning hurtigere, mens der som regel opnås en score tæt på den bedste.

Opgave

Swipe to start coding

Du har et forbehandlet pingvindatasæt. Finjuster en KNeighborsClassifier ved hjælp af begge søgemetoder:

  1. Opret param_grid med værdier for n_neighbors, weights og p.
  2. Initialiser RandomizedSearchCV(..., n_iter=20).
  3. Initialiser GridSearchCV med det samme grid.
  4. Træn begge søgninger på X, y.
  5. Udskriv grid search’s .best_estimator_.
  6. Udskriv randomized search’s .best_score_.

Løsning

Note
Bemærk

Prøv at køre koden flere gange. RandomizedSearchCV kan matche grid search-scoren, når den tilfældigt udvælger de bedste hyperparametre.

Var alt klart?

Hvordan kan vi forbedre det?

Tak for dine kommentarer!

Sektion 4. Kapitel 8
single

single

Spørg AI

expand

Spørg AI

ChatGPT

Spørg om hvad som helst eller prøv et af de foreslåede spørgsmål for at starte vores chat

Suggested prompts:

Can you explain how to choose the value for `n_iter` in RandomizedSearchCV?

What are the main advantages and disadvantages of using RandomizedSearchCV compared to GridSearchCV?

Can you give an example of when RandomizedSearchCV would be preferred over GridSearchCV?

close

bookUdfordring: Justering af Hyperparametre med RandomizedSearchCV

Stryg for at vise menuen

RandomizedSearchCV fungerer som GridSearchCV, men i stedet for at afprøve alle kombinationer af hyperparametre, evaluerer den et tilfældigt udsnit. I eksemplet nedenfor indeholder gitteret 100 kombinationer. GridSearchCV tester dem alle, mens RandomizedSearchCV for eksempel kan udvælge 20 — styret af n_iter. Dette gør tuning hurtigere, mens der som regel opnås en score tæt på den bedste.

Opgave

Swipe to start coding

Du har et forbehandlet pingvindatasæt. Finjuster en KNeighborsClassifier ved hjælp af begge søgemetoder:

  1. Opret param_grid med værdier for n_neighbors, weights og p.
  2. Initialiser RandomizedSearchCV(..., n_iter=20).
  3. Initialiser GridSearchCV med det samme grid.
  4. Træn begge søgninger på X, y.
  5. Udskriv grid search’s .best_estimator_.
  6. Udskriv randomized search’s .best_score_.

Løsning

Note
Bemærk

Prøv at køre koden flere gange. RandomizedSearchCV kan matche grid search-scoren, når den tilfældigt udvælger de bedste hyperparametre.

Switch to desktopSkift til skrivebord for at øve i den virkelige verdenFortsæt der, hvor du er, med en af nedenstående muligheder
Var alt klart?

Hvordan kan vi forbedre det?

Tak for dine kommentarer!

Sektion 4. Kapitel 8
single

single

some-alt