Implementación de k-NN
KNeighborsClassifier
Implementar k-Nearest Neighbors es bastante sencillo. Solo es necesario importar y utilizar la clase KNeighborsClassifier.
Una vez que hayas importado la clase y creado un objeto de clase de la siguiente manera:
# Importing the class
from sklearn.neighbors import KNeighborsClassifier
knn = KNeighborsClassifier(n_neighbors=3)
Debes proporcionarle los datos de entrenamiento utilizando el método .fit():
knn.fit(X_scaled, y)
¡Y eso es todo! Ahora puedes predecir nuevos valores.
y_pred = knn.predict(X_new_scaled)
Escalado de los datos
Sin embargo, recuerda que los datos deben estar escalados. StandardScaler se utiliza comúnmente para este propósito:
Debe calcular xˉ y s solo en el conjunto de entrenamiento utilizando .fit() o .fit_transform().
Luego, utilice .transform() en el conjunto de prueba para que ambos conjuntos se escalen de manera idéntica:
from sklearn.preprocessing import StandardScaler
scaler = StandardScaler()
X_train_scaled = scaler.fit_transform(X_train)
X_test_scaled = scaler.transform(X_test)
Utilizar valores de escalado diferentes para entrenamiento y prueba perjudica las predicciones.
Ejemplo
Se predice si una persona disfruta de Star Wars VI utilizando sus valoraciones para los Episodios IV y V (de The Movies Dataset).
Después de entrenar, se prueban dos usuarios: uno calificó IV/V como 5 y 5, el otro como 4.5 y 4.
123456789101112131415161718192021222324252627from sklearn.neighbors import KNeighborsClassifier from sklearn.preprocessing import StandardScaler import numpy as np import pandas as pd import warnings warnings.filterwarnings('ignore') df = pd.read_csv('https://codefinity-content-media.s3.eu-west-1.amazonaws.com/b71ff7ac-3932-41d2-a4d8-060e24b00129/starwars_binary.csv') # Dropping the target column and leaving only features as `X_train` X_train = df.drop('StarWars6', axis=1) # Storing target column as `y_train`, which contains 1 (liked SW 6) or 0 (didn't like SW 6) y_train = df['StarWars6'] # Test set of two people X_test = np.array([[5, 5], [4.5, 4]]) # Scaling the data scaler = StandardScaler() X_train = scaler.fit_transform(X_train) X_test = scaler.transform(X_test) # Building a model and predict new instances knn = KNeighborsClassifier(n_neighbors=13).fit(X_train, y_train) y_pred = knn.predict(X_test) print(y_pred)
¡Gracias por tus comentarios!
Pregunte a AI
Pregunte a AI
Pregunte lo que quiera o pruebe una de las preguntas sugeridas para comenzar nuestra charla
Can you explain why scaling is important for k-Nearest Neighbors?
What does the output of the prediction mean in this example?
How do I choose the best value for n_neighbors in KNeighborsClassifier?
Awesome!
Completion rate improved to 4.17
Implementación de k-NN
Desliza para mostrar el menú
KNeighborsClassifier
Implementar k-Nearest Neighbors es bastante sencillo. Solo es necesario importar y utilizar la clase KNeighborsClassifier.
Una vez que hayas importado la clase y creado un objeto de clase de la siguiente manera:
# Importing the class
from sklearn.neighbors import KNeighborsClassifier
knn = KNeighborsClassifier(n_neighbors=3)
Debes proporcionarle los datos de entrenamiento utilizando el método .fit():
knn.fit(X_scaled, y)
¡Y eso es todo! Ahora puedes predecir nuevos valores.
y_pred = knn.predict(X_new_scaled)
Escalado de los datos
Sin embargo, recuerda que los datos deben estar escalados. StandardScaler se utiliza comúnmente para este propósito:
Debe calcular xˉ y s solo en el conjunto de entrenamiento utilizando .fit() o .fit_transform().
Luego, utilice .transform() en el conjunto de prueba para que ambos conjuntos se escalen de manera idéntica:
from sklearn.preprocessing import StandardScaler
scaler = StandardScaler()
X_train_scaled = scaler.fit_transform(X_train)
X_test_scaled = scaler.transform(X_test)
Utilizar valores de escalado diferentes para entrenamiento y prueba perjudica las predicciones.
Ejemplo
Se predice si una persona disfruta de Star Wars VI utilizando sus valoraciones para los Episodios IV y V (de The Movies Dataset).
Después de entrenar, se prueban dos usuarios: uno calificó IV/V como 5 y 5, el otro como 4.5 y 4.
123456789101112131415161718192021222324252627from sklearn.neighbors import KNeighborsClassifier from sklearn.preprocessing import StandardScaler import numpy as np import pandas as pd import warnings warnings.filterwarnings('ignore') df = pd.read_csv('https://codefinity-content-media.s3.eu-west-1.amazonaws.com/b71ff7ac-3932-41d2-a4d8-060e24b00129/starwars_binary.csv') # Dropping the target column and leaving only features as `X_train` X_train = df.drop('StarWars6', axis=1) # Storing target column as `y_train`, which contains 1 (liked SW 6) or 0 (didn't like SW 6) y_train = df['StarWars6'] # Test set of two people X_test = np.array([[5, 5], [4.5, 4]]) # Scaling the data scaler = StandardScaler() X_train = scaler.fit_transform(X_train) X_test = scaler.transform(X_test) # Building a model and predict new instances knn = KNeighborsClassifier(n_neighbors=13).fit(X_train, y_train) y_pred = knn.predict(X_test) print(y_pred)
¡Gracias por tus comentarios!