Власні Значення та Власні Вектори
Власний вектор матриці — це ненульовий вектор, напрямок якого не змінюється при застосуванні до нього лінійного перетворення (яке задається матрицею); змінюється лише його довжина. Величина масштабування визначається відповідним власним значенням.
Для матриці коваріації Σ, власні вектори вказують напрямки максимальної дисперсії, а власні значення показують, яка дисперсія знаходиться в цих напрямках.
Математично, для матриці A, власного вектора v та власного значення λ:
Av=λvУ PCA власні вектори матриці коваріації є головними осями, а власні значення — це дисперсії вздовж цих осей.
12345678910111213import numpy as np # Using the covariance matrix from the previous code X = np.array([[2.5, 2.4], [0.5, 0.7], [2.2, 2.9]]) X_centered = X - np.mean(X, axis=0) cov_matrix = (X_centered.T @ X_centered) / X_centered.shape[0] # Compute eigenvalues and eigenvectors values, vectors = np.linalg.eig(cov_matrix) print("Eigenvalues:", values) print("Eigenvectors:\n", vectors)
Власний вектор з найбільшим власним значенням вказує у напрямку найбільшої дисперсії у даних. Це є першою головною компонентою.
Дякуємо за ваш відгук!
Запитати АІ
Запитати АІ
Запитайте про що завгодно або спробуйте одне із запропонованих запитань, щоб почати наш чат
Can you explain what the eigenvectors and eigenvalues mean in this context?
How do I interpret the output of the code?
What is the next step after finding the eigenvalues and eigenvectors in PCA?
Чудово!
Completion показник покращився до 8.33
Власні Значення та Власні Вектори
Свайпніть щоб показати меню
Власний вектор матриці — це ненульовий вектор, напрямок якого не змінюється при застосуванні до нього лінійного перетворення (яке задається матрицею); змінюється лише його довжина. Величина масштабування визначається відповідним власним значенням.
Для матриці коваріації Σ, власні вектори вказують напрямки максимальної дисперсії, а власні значення показують, яка дисперсія знаходиться в цих напрямках.
Математично, для матриці A, власного вектора v та власного значення λ:
Av=λvУ PCA власні вектори матриці коваріації є головними осями, а власні значення — це дисперсії вздовж цих осей.
12345678910111213import numpy as np # Using the covariance matrix from the previous code X = np.array([[2.5, 2.4], [0.5, 0.7], [2.2, 2.9]]) X_centered = X - np.mean(X, axis=0) cov_matrix = (X_centered.T @ X_centered) / X_centered.shape[0] # Compute eigenvalues and eigenvectors values, vectors = np.linalg.eig(cov_matrix) print("Eigenvalues:", values) print("Eigenvectors:\n", vectors)
Власний вектор з найбільшим власним значенням вказує у напрямку найбільшої дисперсії у даних. Це є першою головною компонентою.
Дякуємо за ваш відгук!