Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Коваріаційна матриця | Основні поняття РСА
Метод Головних Компонент
course content

Зміст курсу

Метод Головних Компонент

Метод Головних Компонент

1. Що таке аналіз головних компонент
2. Основні поняття РСА
3. Побудова моделі
4. Аналіз результатів

Коваріаційна матриця

Наступний крок - створення коваріаційної матриці. Навіщо ми це робимо? Коваріаційна матриця дозволяє побачити зв'язок між змінними в наборі даних. Якщо деякі змінні мають сильну кореляцію між собою, це дозволить нам уникнути надлишкової інформації на наступному кроці. У цьому і полягає сенс алгоритму PCA: зробити відмінності між змінними більш вираженими і позбутися інформаційного перевантаження.

Коваріаційна матриця - це симетрична матриця виду nxn, де n - загальна кількість вимірів, тобто змінних, які ми маємо в наборі даних. Якщо у нас є 5 змінних: x1, x2, x3, x4, x5, то коваріаційна матриця 5x5 матиме такий вигляд:

Зверніть увагу на знак значень коваріації: якщо вона додатна, то змінні корелюють між собою (коли одна збільшується або зменшується, друга також), якщо від'ємна, то змінні мають обернену кореляцію (коли одна збільшується, друга зменшується і навпаки).

Для обчислення коваріаційної матриці використаємо numpy:

Завдання

Прочитати набір даних з файлу train.csv (файл з Інтернету), стандартизувати дані, обчислити коваріаційну матрицю та вивести її на екран.

Завдання

Прочитати набір даних з файлу train.csv (файл з Інтернету), стандартизувати дані, обчислити коваріаційну матрицю та вивести її на екран.

Перейдіть на комп'ютер для реальної практикиПродовжуйте з того місця, де ви зупинились, використовуючи один з наведених нижче варіантів

Все було зрозуміло?

Секція 2. Розділ 2
toggle bottom row

Коваріаційна матриця

Наступний крок - створення коваріаційної матриці. Навіщо ми це робимо? Коваріаційна матриця дозволяє побачити зв'язок між змінними в наборі даних. Якщо деякі змінні мають сильну кореляцію між собою, це дозволить нам уникнути надлишкової інформації на наступному кроці. У цьому і полягає сенс алгоритму PCA: зробити відмінності між змінними більш вираженими і позбутися інформаційного перевантаження.

Коваріаційна матриця - це симетрична матриця виду nxn, де n - загальна кількість вимірів, тобто змінних, які ми маємо в наборі даних. Якщо у нас є 5 змінних: x1, x2, x3, x4, x5, то коваріаційна матриця 5x5 матиме такий вигляд:

Зверніть увагу на знак значень коваріації: якщо вона додатна, то змінні корелюють між собою (коли одна збільшується або зменшується, друга також), якщо від'ємна, то змінні мають обернену кореляцію (коли одна збільшується, друга зменшується і навпаки).

Для обчислення коваріаційної матриці використаємо numpy:

Завдання

Прочитати набір даних з файлу train.csv (файл з Інтернету), стандартизувати дані, обчислити коваріаційну матрицю та вивести її на екран.

Завдання

Прочитати набір даних з файлу train.csv (файл з Інтернету), стандартизувати дані, обчислити коваріаційну матрицю та вивести її на екран.

Перейдіть на комп'ютер для реальної практикиПродовжуйте з того місця, де ви зупинились, використовуючи один з наведених нижче варіантів

Все було зрозуміло?

Секція 2. Розділ 2
toggle bottom row

Коваріаційна матриця

Наступний крок - створення коваріаційної матриці. Навіщо ми це робимо? Коваріаційна матриця дозволяє побачити зв'язок між змінними в наборі даних. Якщо деякі змінні мають сильну кореляцію між собою, це дозволить нам уникнути надлишкової інформації на наступному кроці. У цьому і полягає сенс алгоритму PCA: зробити відмінності між змінними більш вираженими і позбутися інформаційного перевантаження.

Коваріаційна матриця - це симетрична матриця виду nxn, де n - загальна кількість вимірів, тобто змінних, які ми маємо в наборі даних. Якщо у нас є 5 змінних: x1, x2, x3, x4, x5, то коваріаційна матриця 5x5 матиме такий вигляд:

Зверніть увагу на знак значень коваріації: якщо вона додатна, то змінні корелюють між собою (коли одна збільшується або зменшується, друга також), якщо від'ємна, то змінні мають обернену кореляцію (коли одна збільшується, друга зменшується і навпаки).

Для обчислення коваріаційної матриці використаємо numpy:

Завдання

Прочитати набір даних з файлу train.csv (файл з Інтернету), стандартизувати дані, обчислити коваріаційну матрицю та вивести її на екран.

Завдання

Прочитати набір даних з файлу train.csv (файл з Інтернету), стандартизувати дані, обчислити коваріаційну матрицю та вивести її на екран.

Перейдіть на комп'ютер для реальної практикиПродовжуйте з того місця, де ви зупинились, використовуючи один з наведених нижче варіантів

Все було зрозуміло?

Наступний крок - створення коваріаційної матриці. Навіщо ми це робимо? Коваріаційна матриця дозволяє побачити зв'язок між змінними в наборі даних. Якщо деякі змінні мають сильну кореляцію між собою, це дозволить нам уникнути надлишкової інформації на наступному кроці. У цьому і полягає сенс алгоритму PCA: зробити відмінності між змінними більш вираженими і позбутися інформаційного перевантаження.

Коваріаційна матриця - це симетрична матриця виду nxn, де n - загальна кількість вимірів, тобто змінних, які ми маємо в наборі даних. Якщо у нас є 5 змінних: x1, x2, x3, x4, x5, то коваріаційна матриця 5x5 матиме такий вигляд:

Зверніть увагу на знак значень коваріації: якщо вона додатна, то змінні корелюють між собою (коли одна збільшується або зменшується, друга також), якщо від'ємна, то змінні мають обернену кореляцію (коли одна збільшується, друга зменшується і навпаки).

Для обчислення коваріаційної матриці використаємо numpy:

Завдання

Прочитати набір даних з файлу train.csv (файл з Інтернету), стандартизувати дані, обчислити коваріаційну матрицю та вивести її на екран.

Перейдіть на комп'ютер для реальної практикиПродовжуйте з того місця, де ви зупинились, використовуючи один з наведених нижче варіантів
Секція 2. Розділ 2
Перейдіть на комп'ютер для реальної практикиПродовжуйте з того місця, де ви зупинились, використовуючи один з наведених нижче варіантів
We're sorry to hear that something went wrong. What happened?
some-alt