Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Вивчайте Завдання: Реалізація Випадкового Лісу | Випадковий Ліс
Класифікація з Python

bookЗавдання: Реалізація Випадкового Лісу

У sklearn класифікаційна версія Random Forest реалізована за допомогою RandomForestClassifier:

Також буде обчислено точність крос-валідації за допомогою функції cross_val_score():

Наприкінці буде виведено важливість кожної ознаки. Атрибут feature_importances_ повертає масив оцінок важливості — ці оцінки відображають, наскільки кожна ознака сприяла зменшенню нечистоти Джині на всіх вузлах дерева рішень, де ця ознака використовувалася. Іншими словами, чим більше ознака допомагає розділяти дані корисним чином, тим вища її важливість.

Однак цей атрибут повертає лише оцінки без назв ознак. Щоб відобразити обидва, можна поєднати їх за допомогою функції Python zip():

for feature, importance in zip(X.columns, model.feature_importances_):
    print(feature, importance)

Цей код виводить назву кожної ознаки разом з її оцінкою важливості, що полегшує розуміння, на які ознаки модель спиралася найбільше.

Завдання

Swipe to start coding

Вам надано датасет Titanic, збережений у змінній DataFrame типу df.

  • Ініціалізуйте модель Random Forest, встановіть random_state=42, навчіть її та збережіть навчений екземпляр у змінній random_forest.
  • Обчисліть оцінки крос-валідації для навченої моделі, використовуючи 10 фолдів, і збережіть отримані оцінки у змінній cv_scores.

Рішення

Все було зрозуміло?

Як ми можемо покращити це?

Дякуємо за ваш відгук!

Секція 4. Розділ 3
single

single

Запитати АІ

expand

Запитати АІ

ChatGPT

Запитайте про що завгодно або спробуйте одне із запропонованих запитань, щоб почати наш чат

close

Awesome!

Completion rate improved to 4.17

bookЗавдання: Реалізація Випадкового Лісу

Свайпніть щоб показати меню

У sklearn класифікаційна версія Random Forest реалізована за допомогою RandomForestClassifier:

Також буде обчислено точність крос-валідації за допомогою функції cross_val_score():

Наприкінці буде виведено важливість кожної ознаки. Атрибут feature_importances_ повертає масив оцінок важливості — ці оцінки відображають, наскільки кожна ознака сприяла зменшенню нечистоти Джині на всіх вузлах дерева рішень, де ця ознака використовувалася. Іншими словами, чим більше ознака допомагає розділяти дані корисним чином, тим вища її важливість.

Однак цей атрибут повертає лише оцінки без назв ознак. Щоб відобразити обидва, можна поєднати їх за допомогою функції Python zip():

for feature, importance in zip(X.columns, model.feature_importances_):
    print(feature, importance)

Цей код виводить назву кожної ознаки разом з її оцінкою важливості, що полегшує розуміння, на які ознаки модель спиралася найбільше.

Завдання

Swipe to start coding

Вам надано датасет Titanic, збережений у змінній DataFrame типу df.

  • Ініціалізуйте модель Random Forest, встановіть random_state=42, навчіть її та збережіть навчений екземпляр у змінній random_forest.
  • Обчисліть оцінки крос-валідації для навченої моделі, використовуючи 10 фолдів, і збережіть отримані оцінки у змінній cv_scores.

Рішення

Switch to desktopПерейдіть на комп'ютер для реальної практикиПродовжуйте з того місця, де ви зупинились, використовуючи один з наведених нижче варіантів
Все було зрозуміло?

Як ми можемо покращити це?

Дякуємо за ваш відгук!

Секція 4. Розділ 3
single

single

some-alt