Herausforderung: Bewertung des Perzeptrons
Zur Bewertung des zuvor erstellten Perzeptrons wird ein Datensatz mit zwei Eingabemerkmalen und zwei unterschiedlichen Klassen (0 und 1) verwendet:
Dieser Datensatz ist ausgeglichen, mit 500 Stichproben der Klasse 1 und 500 Stichproben der Klasse 0. Daher ist die Genauigkeit in diesem Fall ein ausreichendes Bewertungsmaß, das mit der Funktion accuracy_score() berechnet werden kann:
accuracy_score(y_true, y_pred)
y_true steht für die tatsächlichen Labels, während y_pred die vorhergesagten Labels repräsentiert.
Der Datensatz ist in perceptron.py als zwei NumPy-Arrays gespeichert: X (Eingabemerkmale) und y (zugehörige Labels), sodass sie einfach importiert werden können. Diese Datei enthält außerdem model, die Instanz der zuvor erstellten Klasse Perceptron.
Swipe to start coding
Ziel ist es, die Leistungsfähigkeit des trainierten Perzeptron-Modells auf unbekannten Daten zu bewerten. Befolgen Sie die folgenden Schritte, um den Datensatz aufzuteilen, das Modell zu trainieren, Vorhersagen zu generieren und die Genauigkeit zu messen.
- Teilen Sie den Datensatz in Trainingsdaten (80 %) und Testdaten (20 %) mit der Funktion
train_test_split().
- Verwenden Sie
test_size=0.2undrandom_state=10, um die Reproduzierbarkeit sicherzustellen.
- Trainieren Sie das Perzeptron-Modell für 10 Epochen mit einer Lernrate von
0.01, indem Sie die Methodefit()aufrufen. - Erhalten Sie Vorhersagen für alle Beispiele im Testdatensatz, indem Sie für jedes Eingabebeispiel die Methode
forward()des Modells aufrufen. - Runden Sie die Vorhersagen mit
np.round(), sodass Wahrscheinlichkeiten größer oder gleich0.5als Klasse1und Wahrscheinlichkeiten unter0.5als Klasse0behandelt werden. - Bewerten Sie die Genauigkeit, indem Sie die vorhergesagten Labels mit den tatsächlichen Test-Labels mithilfe der Funktion
accuracy_score()aussklearn.metricsvergleichen.
Lösung
Danke für Ihr Feedback!
single
Fragen Sie AI
Fragen Sie AI
Fragen Sie alles oder probieren Sie eine der vorgeschlagenen Fragen, um unser Gespräch zu beginnen
How do I use the `accuracy_score()` function with my perceptron model?
Can you show me how to import the dataset and model from `perceptron.py`?
What are the next steps to evaluate the perceptron on this dataset?
Awesome!
Completion rate improved to 4
Herausforderung: Bewertung des Perzeptrons
Swipe um das Menü anzuzeigen
Zur Bewertung des zuvor erstellten Perzeptrons wird ein Datensatz mit zwei Eingabemerkmalen und zwei unterschiedlichen Klassen (0 und 1) verwendet:
Dieser Datensatz ist ausgeglichen, mit 500 Stichproben der Klasse 1 und 500 Stichproben der Klasse 0. Daher ist die Genauigkeit in diesem Fall ein ausreichendes Bewertungsmaß, das mit der Funktion accuracy_score() berechnet werden kann:
accuracy_score(y_true, y_pred)
y_true steht für die tatsächlichen Labels, während y_pred die vorhergesagten Labels repräsentiert.
Der Datensatz ist in perceptron.py als zwei NumPy-Arrays gespeichert: X (Eingabemerkmale) und y (zugehörige Labels), sodass sie einfach importiert werden können. Diese Datei enthält außerdem model, die Instanz der zuvor erstellten Klasse Perceptron.
Swipe to start coding
Ziel ist es, die Leistungsfähigkeit des trainierten Perzeptron-Modells auf unbekannten Daten zu bewerten. Befolgen Sie die folgenden Schritte, um den Datensatz aufzuteilen, das Modell zu trainieren, Vorhersagen zu generieren und die Genauigkeit zu messen.
- Teilen Sie den Datensatz in Trainingsdaten (80 %) und Testdaten (20 %) mit der Funktion
train_test_split().
- Verwenden Sie
test_size=0.2undrandom_state=10, um die Reproduzierbarkeit sicherzustellen.
- Trainieren Sie das Perzeptron-Modell für 10 Epochen mit einer Lernrate von
0.01, indem Sie die Methodefit()aufrufen. - Erhalten Sie Vorhersagen für alle Beispiele im Testdatensatz, indem Sie für jedes Eingabebeispiel die Methode
forward()des Modells aufrufen. - Runden Sie die Vorhersagen mit
np.round(), sodass Wahrscheinlichkeiten größer oder gleich0.5als Klasse1und Wahrscheinlichkeiten unter0.5als Klasse0behandelt werden. - Bewerten Sie die Genauigkeit, indem Sie die vorhergesagten Labels mit den tatsächlichen Test-Labels mithilfe der Funktion
accuracy_score()aussklearn.metricsvergleichen.
Lösung
Danke für Ihr Feedback!
single