Utfordring: Implementering av en Random Forest
I sklearn implementeres klassifikasjonsversjonen av Random Forest ved å bruke RandomForestClassifier:
Du skal også beregne kryssvalideringsnøyaktigheten ved hjelp av funksjonen cross_val_score():
Til slutt skal du skrive ut viktigheten til hver funksjon. Attributtet feature_importances_ returnerer et array med viktighetspoeng – disse poengene representerer hvor mye hver funksjon bidro til å redusere Gini-impuritet på alle beslutningsnoder der funksjonen ble brukt. Med andre ord, jo mer en funksjon bidrar til å splitte dataene på en nyttig måte, desto høyere blir dens viktighet.
Attributtet gir imidlertid kun poeng uten funksjonsnavn. For å vise begge deler kan du pare dem ved å bruke Pythons zip()-funksjon:
for feature, importance in zip(X.columns, model.feature_importances_):
print(feature, importance)
Dette skriver ut hvert funksjonsnavn sammen med dets viktighetspoeng, noe som gjør det enklere å forstå hvilke funksjoner modellen stolte mest på.
Swipe to start coding
Du har fått utdelt et Titanic-datasett lagret som en DataFrame i variabelen df.
- Initialiser Random Forest-modellen, sett
random_state=42, tren den, og lagre den tilpassede modellen i variabelenrandom_forest. - Beregn kryssvalideringsskårene for den trente modellen ved å bruke
10fold, og lagre de resulterende skårene i variabelencv_scores.
Løsning
Takk for tilbakemeldingene dine!
single
Spør AI
Spør AI
Spør om hva du vil, eller prøv ett av de foreslåtte spørsmålene for å starte chatten vår
Can you explain how cross-validation works in this context?
How do I interpret the feature importance scores?
Can you show an example of how to use RandomForestClassifier with cross_val_score?
Awesome!
Completion rate improved to 4.17
Utfordring: Implementering av en Random Forest
Sveip for å vise menyen
I sklearn implementeres klassifikasjonsversjonen av Random Forest ved å bruke RandomForestClassifier:
Du skal også beregne kryssvalideringsnøyaktigheten ved hjelp av funksjonen cross_val_score():
Til slutt skal du skrive ut viktigheten til hver funksjon. Attributtet feature_importances_ returnerer et array med viktighetspoeng – disse poengene representerer hvor mye hver funksjon bidro til å redusere Gini-impuritet på alle beslutningsnoder der funksjonen ble brukt. Med andre ord, jo mer en funksjon bidrar til å splitte dataene på en nyttig måte, desto høyere blir dens viktighet.
Attributtet gir imidlertid kun poeng uten funksjonsnavn. For å vise begge deler kan du pare dem ved å bruke Pythons zip()-funksjon:
for feature, importance in zip(X.columns, model.feature_importances_):
print(feature, importance)
Dette skriver ut hvert funksjonsnavn sammen med dets viktighetspoeng, noe som gjør det enklere å forstå hvilke funksjoner modellen stolte mest på.
Swipe to start coding
Du har fått utdelt et Titanic-datasett lagret som en DataFrame i variabelen df.
- Initialiser Random Forest-modellen, sett
random_state=42, tren den, og lagre den tilpassede modellen i variabelenrandom_forest. - Beregn kryssvalideringsskårene for den trente modellen ved å bruke
10fold, og lagre de resulterende skårene i variabelencv_scores.
Løsning
Takk for tilbakemeldingene dine!
single