Eigenwaarden en Eigenvectoren
Een eigenvector van een matrix is een niet-nul vector waarvan de richting onveranderd blijft wanneer een lineaire transformatie (weergegeven door de matrix) wordt toegepast; alleen de lengte wordt geschaald. De mate van schaling wordt gegeven door de bijbehorende eigenwaarde.
Voor de covariantiematrix Σ wijzen eigenvectoren in de richtingen van maximale variantie, en eigenwaarden geven aan hoeveel variantie er in die richtingen is.
Wiskundig gezien, voor matrix A, eigenvector v en eigenwaarde λ:
Av=λvIn PCA zijn de eigenvectoren van de covariantiematrix de hoofdassen, en de eigenwaarden zijn de varianties langs die assen.
12345678910111213import numpy as np # Using the covariance matrix from the previous code X = np.array([[2.5, 2.4], [0.5, 0.7], [2.2, 2.9]]) X_centered = X - np.mean(X, axis=0) cov_matrix = (X_centered.T @ X_centered) / X_centered.shape[0] # Compute eigenvalues and eigenvectors values, vectors = np.linalg.eig(cov_matrix) print("Eigenvalues:", values) print("Eigenvectors:\n", vectors)
De eigenvector met de grootste eigenwaarde wijst in de richting van de grootste variantie in de data. Dit is de eerste hoofdcomponent.
Bedankt voor je feedback!
Vraag AI
Vraag AI
Vraag wat u wilt of probeer een van de voorgestelde vragen om onze chat te starten.
Can you explain what the eigenvectors and eigenvalues mean in this context?
How do I interpret the output of the code?
What is the next step after finding the eigenvalues and eigenvectors in PCA?
Geweldig!
Completion tarief verbeterd naar 8.33
Eigenwaarden en Eigenvectoren
Veeg om het menu te tonen
Een eigenvector van een matrix is een niet-nul vector waarvan de richting onveranderd blijft wanneer een lineaire transformatie (weergegeven door de matrix) wordt toegepast; alleen de lengte wordt geschaald. De mate van schaling wordt gegeven door de bijbehorende eigenwaarde.
Voor de covariantiematrix Σ wijzen eigenvectoren in de richtingen van maximale variantie, en eigenwaarden geven aan hoeveel variantie er in die richtingen is.
Wiskundig gezien, voor matrix A, eigenvector v en eigenwaarde λ:
Av=λvIn PCA zijn de eigenvectoren van de covariantiematrix de hoofdassen, en de eigenwaarden zijn de varianties langs die assen.
12345678910111213import numpy as np # Using the covariance matrix from the previous code X = np.array([[2.5, 2.4], [0.5, 0.7], [2.2, 2.9]]) X_centered = X - np.mean(X, axis=0) cov_matrix = (X_centered.T @ X_centered) / X_centered.shape[0] # Compute eigenvalues and eigenvectors values, vectors = np.linalg.eig(cov_matrix) print("Eigenvalues:", values) print("Eigenvectors:\n", vectors)
De eigenvector met de grootste eigenwaarde wijst in de richting van de grootste variantie in de data. Dit is de eerste hoofdcomponent.
Bedankt voor je feedback!