Clasificación Multiclase
Clasificación multiclase con k-NN es tan sencilla como la clasificación binaria. Simplemente se selecciona la clase que predomina en el vecindario.
El KNeighborsClassifier
realiza automáticamente una clasificación multiclase si y
tiene más de dos características, por lo que no es necesario cambiar nada. Lo único que varía es la variable y
que se proporciona al método .fit()
.
Ahora, se realizará una clasificación multiclase con k-NN. Considere el siguiente conjunto de datos:
1234import pandas as pd df = pd.read_csv('https://codefinity-content-media.s3.eu-west-1.amazonaws.com/b71ff7ac-3932-41d2-a4d8-060e24b00129/starwars_multiple.csv') print(df.head())
Es igual que en el ejemplo del capítulo anterior, pero ahora el objetivo puede tomar tres valores:
- 0: "Lo odié" (la calificación es menor que 3/5);
- 1: "Meh" (la calificación está entre 3/5 y 4/5);
- 2: "Me gustó" (la calificación es 4/5 o superior).
Swipe to start coding
Se proporciona el conjunto de datos de calificaciones de Star Wars almacenado como un DataFrame
en la variable df
.
- Inicializar un escalador apropiado y almacenarlo en la variable
scaler
. - Calcular los parámetros de escalado en los datos de entrenamiento, escalar estos datos y guardar el resultado en la variable
X_train
. - Escalar los datos de prueba y guardar el resultado en la variable
X_test
. - Crear una instancia de k-NN con
13
vecinos, entrenarla con el conjunto de entrenamiento y almacenarla en la variableknn
. - Realizar predicciones sobre el conjunto de prueba y almacenarlas en la variable
y_pred
.
Solución
¡Gracias por tus comentarios!
single
Pregunte a AI
Pregunte a AI
Pregunte lo que quiera o pruebe una de las preguntas sugeridas para comenzar nuestra charla
Can you explain how to use KNeighborsClassifier for this dataset?
What do the features in the dataset represent?
How do I interpret the output of the classifier?
Awesome!
Completion rate improved to 4.17
Clasificación Multiclase
Desliza para mostrar el menú
Clasificación multiclase con k-NN es tan sencilla como la clasificación binaria. Simplemente se selecciona la clase que predomina en el vecindario.
El KNeighborsClassifier
realiza automáticamente una clasificación multiclase si y
tiene más de dos características, por lo que no es necesario cambiar nada. Lo único que varía es la variable y
que se proporciona al método .fit()
.
Ahora, se realizará una clasificación multiclase con k-NN. Considere el siguiente conjunto de datos:
1234import pandas as pd df = pd.read_csv('https://codefinity-content-media.s3.eu-west-1.amazonaws.com/b71ff7ac-3932-41d2-a4d8-060e24b00129/starwars_multiple.csv') print(df.head())
Es igual que en el ejemplo del capítulo anterior, pero ahora el objetivo puede tomar tres valores:
- 0: "Lo odié" (la calificación es menor que 3/5);
- 1: "Meh" (la calificación está entre 3/5 y 4/5);
- 2: "Me gustó" (la calificación es 4/5 o superior).
Swipe to start coding
Se proporciona el conjunto de datos de calificaciones de Star Wars almacenado como un DataFrame
en la variable df
.
- Inicializar un escalador apropiado y almacenarlo en la variable
scaler
. - Calcular los parámetros de escalado en los datos de entrenamiento, escalar estos datos y guardar el resultado en la variable
X_train
. - Escalar los datos de prueba y guardar el resultado en la variable
X_test
. - Crear una instancia de k-NN con
13
vecinos, entrenarla con el conjunto de entrenamiento y almacenarla en la variableknn
. - Realizar predicciones sobre el conjunto de prueba y almacenarlas en la variable
y_pred
.
Solución
¡Gracias por tus comentarios!
single