Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Lära Multiklassklassificering | K-NN-Klassificerare
Klassificering med Python

bookMultiklassklassificering

Flervalsklassificering med k-NN är lika enkel som binär klassificering. Vi väljer helt enkelt den klass som dominerar i grannskapet.

KNeighborsClassifier utför automatiskt en flervalsklassificering om y har fler än två egenskaper, så du behöver inte ändra något. Det enda som ändras är y-variabeln som matas in i .fit()-metoden.

Nu kommer du att utföra en flervalsklassificering med k-NN. Betrakta följande dataset:

1234
import pandas as pd df = pd.read_csv('https://codefinity-content-media.s3.eu-west-1.amazonaws.com/b71ff7ac-3932-41d2-a4d8-060e24b00129/starwars_multiple.csv') print(df.head())
copy

Det är samma som i föregående kapitels exempel, men nu kan målet anta tre värden:

  • 0: "Hated it" (rating is less than 3/5);
  • 1: "Meh" (rating between 3/5 and 4/5);
  • 2: "Liked it" (rating is 4/5 or higher).
Uppgift

Swipe to start coding

Du har fått Star Wars-betygsdatasetet lagrat som en DataFrame i variabeln df.

  • Initiera en lämplig skalare och lagra den i variabeln scaler.
  • Beräkna skalningsparametrarna på träningsdatan, skala den och lagra resultatet i variabeln X_train.
  • Skala testdatan och lagra resultatet i variabeln X_test.
  • Skapa en instans av k-NN med 13 grannar, träna den på träningsuppsättningen och lagra den i variabeln knn.
  • Gör prediktioner på testuppsättningen och lagra dem i variabeln y_pred.

Lösning

Var allt tydligt?

Hur kan vi förbättra det?

Tack för dina kommentarer!

Avsnitt 1. Kapitel 5
single

single

Fråga AI

expand

Fråga AI

ChatGPT

Fråga vad du vill eller prova någon av de föreslagna frågorna för att starta vårt samtal

close

Awesome!

Completion rate improved to 4.17

bookMultiklassklassificering

Svep för att visa menyn

Flervalsklassificering med k-NN är lika enkel som binär klassificering. Vi väljer helt enkelt den klass som dominerar i grannskapet.

KNeighborsClassifier utför automatiskt en flervalsklassificering om y har fler än två egenskaper, så du behöver inte ändra något. Det enda som ändras är y-variabeln som matas in i .fit()-metoden.

Nu kommer du att utföra en flervalsklassificering med k-NN. Betrakta följande dataset:

1234
import pandas as pd df = pd.read_csv('https://codefinity-content-media.s3.eu-west-1.amazonaws.com/b71ff7ac-3932-41d2-a4d8-060e24b00129/starwars_multiple.csv') print(df.head())
copy

Det är samma som i föregående kapitels exempel, men nu kan målet anta tre värden:

  • 0: "Hated it" (rating is less than 3/5);
  • 1: "Meh" (rating between 3/5 and 4/5);
  • 2: "Liked it" (rating is 4/5 or higher).
Uppgift

Swipe to start coding

Du har fått Star Wars-betygsdatasetet lagrat som en DataFrame i variabeln df.

  • Initiera en lämplig skalare och lagra den i variabeln scaler.
  • Beräkna skalningsparametrarna på träningsdatan, skala den och lagra resultatet i variabeln X_train.
  • Skala testdatan och lagra resultatet i variabeln X_test.
  • Skapa en instans av k-NN med 13 grannar, träna den på träningsuppsättningen och lagra den i variabeln knn.
  • Gör prediktioner på testuppsättningen och lagra dem i variabeln y_pred.

Lösning

Switch to desktopByt till skrivbordet för praktisk övningFortsätt där du är med ett av alternativen nedan
Var allt tydligt?

Hur kan vi förbättra det?

Tack för dina kommentarer!

Avsnitt 1. Kapitel 5
single

single

some-alt