Udfordring: Klassificering af Blomster
Opgave
Swipe to start coding
Dit mål er at træne og evaluere et simpelt neuralt netværk ved hjælp af Iris-datasættet, som består af blomster-målinger og artsklassifikation.
- Opdel datasættet i trænings- og testdatasæt, hvor 20% allokeres til testdatasættet, og random state sættes til
42. - Konverter
X_trainogX_testtil PyTorch-tensorer af typenfloat32. - Konverter
y_trainogy_testtil PyTorch-tensorer af typenlong. - Definér en neural netværksmodel ved at oprette klassen
IrisModel. - Implementér to fuldt forbundne lag og anvend ReLU-aktiveringsfunktionen i det skjulte lag.
- Initialisér modellen med korrekt inputstørrelse, skjult lag-størrelse sat til
16, og outputstørrelse. - Definér tabet som cross-entropy loss og optimeringsmetoden som Adam med en læringsrate på
0.01. - Træn modellen i 100 epoker ved at udføre fremadpropagering, beregne tab, udføre bagudpropagering og opdatere modellens parametre.
- Sæt modellen i evalueringsmode efter træning.
- Deaktiver gradientberegning under test for at forbedre effektiviteten.
- Beregn forudsigelser på testdatasættet ved hjælp af den trænede model.
- Bestem de forudsagte klasselabels baseret på de rå forudsigelser.
Løsning
Var alt klart?
Tak for dine kommentarer!
Sektion 3. Kapitel 4
single
Spørg AI
Spørg AI
Spørg om hvad som helst eller prøv et af de foreslåede spørgsmål for at starte vores chat
Awesome!
Completion rate improved to 5
Udfordring: Klassificering af Blomster
Stryg for at vise menuen
Opgave
Swipe to start coding
Dit mål er at træne og evaluere et simpelt neuralt netværk ved hjælp af Iris-datasættet, som består af blomster-målinger og artsklassifikation.
- Opdel datasættet i trænings- og testdatasæt, hvor 20% allokeres til testdatasættet, og random state sættes til
42. - Konverter
X_trainogX_testtil PyTorch-tensorer af typenfloat32. - Konverter
y_trainogy_testtil PyTorch-tensorer af typenlong. - Definér en neural netværksmodel ved at oprette klassen
IrisModel. - Implementér to fuldt forbundne lag og anvend ReLU-aktiveringsfunktionen i det skjulte lag.
- Initialisér modellen med korrekt inputstørrelse, skjult lag-størrelse sat til
16, og outputstørrelse. - Definér tabet som cross-entropy loss og optimeringsmetoden som Adam med en læringsrate på
0.01. - Træn modellen i 100 epoker ved at udføre fremadpropagering, beregne tab, udføre bagudpropagering og opdatere modellens parametre.
- Sæt modellen i evalueringsmode efter træning.
- Deaktiver gradientberegning under test for at forbedre effektiviteten.
- Beregn forudsigelser på testdatasættet ved hjælp af den trænede model.
- Bestem de forudsagte klasselabels baseret på de rå forudsigelser.
Løsning
Var alt klart?
Tak for dine kommentarer!
Sektion 3. Kapitel 4
single