Défi : Évaluation du Perceptron
Pour évaluer le perceptron précédemment créé, vous utiliserez un jeu de données contenant deux caractéristiques d'entrée et deux classes distinctes (0 et 1) :
Ce jeu de données est équilibré, avec 500 échantillons de la classe 1 et 500 échantillons de la classe 0. Par conséquent, la précision est une métrique suffisante pour l'évaluation dans ce cas, qui peut être calculée à l'aide de la fonction accuracy_score() :
accuracy_score(y_true, y_pred)
y_true représente les étiquettes réelles, tandis que y_pred représente les étiquettes prédites.
Le jeu de données est stocké dans perceptron.py sous forme de deux tableaux NumPy : X (caractéristiques d'entrée) et y (étiquettes correspondantes), ils seront donc simplement importés. Ce fichier contient également model, qui est l'instance de la classe Perceptron que vous avez créée précédemment.
Swipe to start coding
Votre objectif est d'évaluer les performances du modèle perceptron entraîné sur des données non vues. Suivez les étapes ci-dessous pour diviser le jeu de données, entraîner le modèle, générer des prédictions et mesurer sa précision.
- Divisez le jeu de données en ensembles d'entraînement (80 %) et de test (20 %) à l'aide de la fonction
train_test_split().
- Utilisez
test_size=0.2etrandom_state=10pour garantir la reproductibilité.
- Entraînez le modèle perceptron pendant 10 époques avec un taux d'apprentissage de
0.01en appelant la méthodefit(). - Obtenez les prédictions pour tous les exemples de l'ensemble de test en appelant la méthode
forward()du modèle pour chaque exemple d'entrée. - Arrondissez les prédictions à l'aide de
np.round()afin que les probabilités supérieures ou égales à0.5soient considérées comme la classe1, et celles inférieures à0.5comme la classe0. - Évaluez la précision en comparant les étiquettes prédites avec les étiquettes réelles du test à l'aide de la fonction
accuracy_score()desklearn.metrics.
Solution
Merci pour vos commentaires !
single
Demandez à l'IA
Demandez à l'IA
Posez n'importe quelle question ou essayez l'une des questions suggérées pour commencer notre discussion
Awesome!
Completion rate improved to 4
Défi : Évaluation du Perceptron
Glissez pour afficher le menu
Pour évaluer le perceptron précédemment créé, vous utiliserez un jeu de données contenant deux caractéristiques d'entrée et deux classes distinctes (0 et 1) :
Ce jeu de données est équilibré, avec 500 échantillons de la classe 1 et 500 échantillons de la classe 0. Par conséquent, la précision est une métrique suffisante pour l'évaluation dans ce cas, qui peut être calculée à l'aide de la fonction accuracy_score() :
accuracy_score(y_true, y_pred)
y_true représente les étiquettes réelles, tandis que y_pred représente les étiquettes prédites.
Le jeu de données est stocké dans perceptron.py sous forme de deux tableaux NumPy : X (caractéristiques d'entrée) et y (étiquettes correspondantes), ils seront donc simplement importés. Ce fichier contient également model, qui est l'instance de la classe Perceptron que vous avez créée précédemment.
Swipe to start coding
Votre objectif est d'évaluer les performances du modèle perceptron entraîné sur des données non vues. Suivez les étapes ci-dessous pour diviser le jeu de données, entraîner le modèle, générer des prédictions et mesurer sa précision.
- Divisez le jeu de données en ensembles d'entraînement (80 %) et de test (20 %) à l'aide de la fonction
train_test_split().
- Utilisez
test_size=0.2etrandom_state=10pour garantir la reproductibilité.
- Entraînez le modèle perceptron pendant 10 époques avec un taux d'apprentissage de
0.01en appelant la méthodefit(). - Obtenez les prédictions pour tous les exemples de l'ensemble de test en appelant la méthode
forward()du modèle pour chaque exemple d'entrée. - Arrondissez les prédictions à l'aide de
np.round()afin que les probabilités supérieures ou égales à0.5soient considérées comme la classe1, et celles inférieures à0.5comme la classe0. - Évaluez la précision en comparant les étiquettes prédites avec les étiquettes réelles du test à l'aide de la fonction
accuracy_score()desklearn.metrics.
Solution
Merci pour vos commentaires !
single