Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Apprendre Défi : Évaluation du Perceptron | Réseau de Neurones à Partir de Zéro
Introduction aux Réseaux de Neurones

bookDéfi : Évaluation du Perceptron

Pour évaluer le perceptron précédemment créé, vous utiliserez un jeu de données contenant deux caractéristiques d'entrée et deux classes distinctes (0 et 1) :

Ce jeu de données est équilibré, avec 500 échantillons de la classe 1 et 500 échantillons de la classe 0. Par conséquent, la précision est une métrique suffisante pour l'évaluation dans ce cas, qui peut être calculée à l'aide de la fonction accuracy_score() :

accuracy_score(y_true, y_pred)

y_true représente les étiquettes réelles, tandis que y_pred représente les étiquettes prédites.

Le jeu de données est stocké dans perceptron.py sous forme de deux tableaux NumPy : X (caractéristiques d'entrée) et y (étiquettes correspondantes), ils seront donc simplement importés. Ce fichier contient également model, qui est l'instance de la classe Perceptron que vous avez créée précédemment.

Tâche

Swipe to start coding

Votre objectif est d'évaluer les performances du modèle perceptron entraîné sur des données non vues. Suivez les étapes ci-dessous pour diviser le jeu de données, entraîner le modèle, générer des prédictions et mesurer sa précision.

  1. Divisez le jeu de données en ensembles d'entraînement (80 %) et de test (20 %) à l'aide de la fonction train_test_split().
  • Utilisez test_size=0.2 et random_state=10 pour garantir la reproductibilité.
  1. Entraînez le modèle perceptron pendant 10 époques avec un taux d'apprentissage de 0.01 en appelant la méthode fit().
  2. Obtenez les prédictions pour tous les exemples de l'ensemble de test en appelant la méthode forward() du modèle pour chaque exemple d'entrée.
  3. Arrondissez les prédictions à l'aide de np.round() afin que les probabilités supérieures ou égales à 0.5 soient considérées comme la classe 1, et celles inférieures à 0.5 comme la classe 0.
  4. Évaluez la précision en comparant les étiquettes prédites avec les étiquettes réelles du test à l'aide de la fonction accuracy_score() de sklearn.metrics.

Solution

Tout était clair ?

Comment pouvons-nous l'améliorer ?

Merci pour vos commentaires !

Section 2. Chapitre 12
single

single

Demandez à l'IA

expand

Demandez à l'IA

ChatGPT

Posez n'importe quelle question ou essayez l'une des questions suggérées pour commencer notre discussion

close

Awesome!

Completion rate improved to 4

bookDéfi : Évaluation du Perceptron

Glissez pour afficher le menu

Pour évaluer le perceptron précédemment créé, vous utiliserez un jeu de données contenant deux caractéristiques d'entrée et deux classes distinctes (0 et 1) :

Ce jeu de données est équilibré, avec 500 échantillons de la classe 1 et 500 échantillons de la classe 0. Par conséquent, la précision est une métrique suffisante pour l'évaluation dans ce cas, qui peut être calculée à l'aide de la fonction accuracy_score() :

accuracy_score(y_true, y_pred)

y_true représente les étiquettes réelles, tandis que y_pred représente les étiquettes prédites.

Le jeu de données est stocké dans perceptron.py sous forme de deux tableaux NumPy : X (caractéristiques d'entrée) et y (étiquettes correspondantes), ils seront donc simplement importés. Ce fichier contient également model, qui est l'instance de la classe Perceptron que vous avez créée précédemment.

Tâche

Swipe to start coding

Votre objectif est d'évaluer les performances du modèle perceptron entraîné sur des données non vues. Suivez les étapes ci-dessous pour diviser le jeu de données, entraîner le modèle, générer des prédictions et mesurer sa précision.

  1. Divisez le jeu de données en ensembles d'entraînement (80 %) et de test (20 %) à l'aide de la fonction train_test_split().
  • Utilisez test_size=0.2 et random_state=10 pour garantir la reproductibilité.
  1. Entraînez le modèle perceptron pendant 10 époques avec un taux d'apprentissage de 0.01 en appelant la méthode fit().
  2. Obtenez les prédictions pour tous les exemples de l'ensemble de test en appelant la méthode forward() du modèle pour chaque exemple d'entrée.
  3. Arrondissez les prédictions à l'aide de np.round() afin que les probabilités supérieures ou égales à 0.5 soient considérées comme la classe 1, et celles inférieures à 0.5 comme la classe 0.
  4. Évaluez la précision en comparant les étiquettes prédites avec les étiquettes réelles du test à l'aide de la fonction accuracy_score() de sklearn.metrics.

Solution

Switch to desktopPassez à un bureau pour une pratique réelleContinuez d'où vous êtes en utilisant l'une des options ci-dessous
Tout était clair ?

Comment pouvons-nous l'améliorer ?

Merci pour vos commentaires !

Section 2. Chapitre 12
single

single

some-alt