Che cos'è k-NN
Iniziamo la nostra avventura nella classificazione con il compito più semplice: la classificazione binaria. Supponiamo di voler classificare i dolci come biscotti/non biscotti in base a una singola caratteristica: il loro peso.
Un modo semplice per prevedere la classe di una nuova istanza è osservare il suo vicino più prossimo. Nel nostro esempio, dobbiamo trovare un dolce che abbia un peso il più simile possibile alla nuova istanza.
Questa è l'idea alla base del k-Nearest Neighbors (k-NN) - si osservano semplicemente i vicini. L'algoritmo k-NN presume che elementi simili esistano in prossimità tra loro. In altre parole, elementi simili si trovano vicini l'uno all'altro. k in k-NN indica il numero di vicini che si considerano durante la previsione.
Nell'esempio sopra, abbiamo considerato solo 1 vicino, quindi si trattava di 1-Nearest Neighbor. Tuttavia, di solito k viene impostato su un numero maggiore, poiché considerare un solo vicino può essere inaffidabile:
Se k (numero di vicini) è maggiore di uno, si sceglie la classe più frequente nel vicinato come previsione. Ecco un esempio di previsione di due nuove istanze con k=3:
Come puoi vedere, modificare il valore di k può portare a previsioni differenti.
Occasionalmente, k-NN produce un pareggio quando più classi compaiono con la stessa frequenza tra i vicini più prossimi. La maggior parte delle librerie, inclusa scikit-learn, risolve i pareggi scegliendo la prima classe secondo il loro ordine interno: un aspetto da considerare, poiché può influenzare in modo sottile la riproducibilità e l'interpretazione.
Grazie per i tuoi commenti!
Chieda ad AI
Chieda ad AI
Chieda pure quello che desidera o provi una delle domande suggerite per iniziare la nostra conversazione
Awesome!
Completion rate improved to 4.17
Che cos'è k-NN
Scorri per mostrare il menu
Iniziamo la nostra avventura nella classificazione con il compito più semplice: la classificazione binaria. Supponiamo di voler classificare i dolci come biscotti/non biscotti in base a una singola caratteristica: il loro peso.
Un modo semplice per prevedere la classe di una nuova istanza è osservare il suo vicino più prossimo. Nel nostro esempio, dobbiamo trovare un dolce che abbia un peso il più simile possibile alla nuova istanza.
Questa è l'idea alla base del k-Nearest Neighbors (k-NN) - si osservano semplicemente i vicini. L'algoritmo k-NN presume che elementi simili esistano in prossimità tra loro. In altre parole, elementi simili si trovano vicini l'uno all'altro. k in k-NN indica il numero di vicini che si considerano durante la previsione.
Nell'esempio sopra, abbiamo considerato solo 1 vicino, quindi si trattava di 1-Nearest Neighbor. Tuttavia, di solito k viene impostato su un numero maggiore, poiché considerare un solo vicino può essere inaffidabile:
Se k (numero di vicini) è maggiore di uno, si sceglie la classe più frequente nel vicinato come previsione. Ecco un esempio di previsione di due nuove istanze con k=3:
Come puoi vedere, modificare il valore di k può portare a previsioni differenti.
Occasionalmente, k-NN produce un pareggio quando più classi compaiono con la stessa frequenza tra i vicini più prossimi. La maggior parte delle librerie, inclusa scikit-learn, risolve i pareggi scegliendo la prima classe secondo il loro ordine interno: un aspetto da considerare, poiché può influenzare in modo sottile la riproducibilità e l'interpretazione.
Grazie per i tuoi commenti!