Завдання: Оцінювання Перцептрона
Для оцінки раніше створеного перцептрона використовується набір даних, що містить дві вхідні ознаки та два різні класи (0 та 1):
Цей набір даних є збалансованим: по 500 зразків для класу 1 та 500 зразків для класу 0. Тому точність є достатньою метрикою для оцінки у цьому випадку, яку можна обчислити за допомогою функції accuracy_score():
accuracy_score(y_true, y_pred)
y_true — це фактичні мітки, а y_pred — передбачені мітки.
Набір даних зберігається у файлі perceptron.py у вигляді двох NumPy-масивів: X (вхідні ознаки) та y (відповідні мітки), тому їх буде просто імпортовано. Цей файл також містить model — екземпляр класу Perceptron, який ви створили раніше.
Swipe to start coding
Ваша мета — оцінити, наскільки добре навчена модель перцептрона працює на невідомих даних. Дотримуйтесь наведених нижче кроків для розділення датасету, навчання моделі, генерації прогнозів і вимірювання її точності.
- Розділіть датасет на тренувальну (80%) та тестову (20%) вибірки за допомогою функції
train_test_split().
- Використовуйте
test_size=0.2іrandom_state=10для забезпечення відтворюваності.
- Навчіть модель перцептрона протягом 10 епох із швидкістю навчання
0.01, викликавши методfit(). - Отримайте прогнози для всіх прикладів із тестової вибірки, викликаючи метод
forward()моделі для кожного вхідного прикладу. - Округліть прогнози за допомогою
np.round(), щоб ймовірності, більші або рівні0.5, вважалися класом1, а менші за0.5— класом0. - Оцініть точність, порівнявши передбачені мітки з фактичними тестовими мітками за допомогою функції
accuracy_score()зsklearn.metrics.
Рішення
Дякуємо за ваш відгук!
single
Запитати АІ
Запитати АІ
Запитайте про що завгодно або спробуйте одне із запропонованих запитань, щоб почати наш чат
How do I use the `accuracy_score()` function with my perceptron model?
Can you show me how to import the dataset and model from `perceptron.py`?
What are the next steps to evaluate the perceptron on this dataset?
Awesome!
Completion rate improved to 4
Завдання: Оцінювання Перцептрона
Свайпніть щоб показати меню
Для оцінки раніше створеного перцептрона використовується набір даних, що містить дві вхідні ознаки та два різні класи (0 та 1):
Цей набір даних є збалансованим: по 500 зразків для класу 1 та 500 зразків для класу 0. Тому точність є достатньою метрикою для оцінки у цьому випадку, яку можна обчислити за допомогою функції accuracy_score():
accuracy_score(y_true, y_pred)
y_true — це фактичні мітки, а y_pred — передбачені мітки.
Набір даних зберігається у файлі perceptron.py у вигляді двох NumPy-масивів: X (вхідні ознаки) та y (відповідні мітки), тому їх буде просто імпортовано. Цей файл також містить model — екземпляр класу Perceptron, який ви створили раніше.
Swipe to start coding
Ваша мета — оцінити, наскільки добре навчена модель перцептрона працює на невідомих даних. Дотримуйтесь наведених нижче кроків для розділення датасету, навчання моделі, генерації прогнозів і вимірювання її точності.
- Розділіть датасет на тренувальну (80%) та тестову (20%) вибірки за допомогою функції
train_test_split().
- Використовуйте
test_size=0.2іrandom_state=10для забезпечення відтворюваності.
- Навчіть модель перцептрона протягом 10 епох із швидкістю навчання
0.01, викликавши методfit(). - Отримайте прогнози для всіх прикладів із тестової вибірки, викликаючи метод
forward()моделі для кожного вхідного прикладу. - Округліть прогнози за допомогою
np.round(), щоб ймовірності, більші або рівні0.5, вважалися класом1, а менші за0.5— класом0. - Оцініть точність, порівнявши передбачені мітки з фактичними тестовими мітками за допомогою функції
accuracy_score()зsklearn.metrics.
Рішення
Дякуємо за ваш відгук!
single