Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Leer Eigenwaarden en Eigenvectoren | Wiskundige Grondslagen van PCA
Quizzes & Challenges
Quizzes
Challenges
/
Dimensionaliteitsreductie met PCA

bookEigenwaarden en Eigenvectoren

Note
Definitie

Een eigenvector van een matrix is een niet-nul vector waarvan de richting onveranderd blijft wanneer een lineaire transformatie (weergegeven door de matrix) wordt toegepast; alleen de lengte wordt geschaald. De mate van schaling wordt gegeven door de bijbehorende eigenwaarde.

Voor de covariantiematrix Σ\Sigma wijzen eigenvectoren in de richtingen van maximale variantie, en eigenwaarden geven aan hoeveel variantie er in die richtingen is.

Wiskundig gezien, voor matrix AA, eigenvector vv en eigenwaarde λλ:

Av=λvA v = \lambda v

In PCA zijn de eigenvectoren van de covariantiematrix de hoofdassen, en de eigenwaarden zijn de varianties langs die assen.

12345678910111213
import numpy as np # Using the covariance matrix from the previous code X = np.array([[2.5, 2.4], [0.5, 0.7], [2.2, 2.9]]) X_centered = X - np.mean(X, axis=0) cov_matrix = (X_centered.T @ X_centered) / X_centered.shape[0] # Compute eigenvalues and eigenvectors values, vectors = np.linalg.eig(cov_matrix) print("Eigenvalues:", values) print("Eigenvectors:\n", vectors)
copy
Note
Opmerking

De eigenvector met de grootste eigenwaarde wijst in de richting van de grootste variantie in de data. Dit is de eerste hoofdcomponent.

question mark

Wat is de rol van eigenwaarden en eigenvectoren van de covariantiematrix in PCA

Select the correct answer

Was alles duidelijk?

Hoe kunnen we het verbeteren?

Bedankt voor je feedback!

Sectie 2. Hoofdstuk 2

Vraag AI

expand

Vraag AI

ChatGPT

Vraag wat u wilt of probeer een van de voorgestelde vragen om onze chat te starten.

Suggested prompts:

Can you explain what the eigenvectors and eigenvalues mean in this context?

How do I interpret the output of the code?

What is the next step after finding the eigenvalues and eigenvectors in PCA?

bookEigenwaarden en Eigenvectoren

Veeg om het menu te tonen

Note
Definitie

Een eigenvector van een matrix is een niet-nul vector waarvan de richting onveranderd blijft wanneer een lineaire transformatie (weergegeven door de matrix) wordt toegepast; alleen de lengte wordt geschaald. De mate van schaling wordt gegeven door de bijbehorende eigenwaarde.

Voor de covariantiematrix Σ\Sigma wijzen eigenvectoren in de richtingen van maximale variantie, en eigenwaarden geven aan hoeveel variantie er in die richtingen is.

Wiskundig gezien, voor matrix AA, eigenvector vv en eigenwaarde λλ:

Av=λvA v = \lambda v

In PCA zijn de eigenvectoren van de covariantiematrix de hoofdassen, en de eigenwaarden zijn de varianties langs die assen.

12345678910111213
import numpy as np # Using the covariance matrix from the previous code X = np.array([[2.5, 2.4], [0.5, 0.7], [2.2, 2.9]]) X_centered = X - np.mean(X, axis=0) cov_matrix = (X_centered.T @ X_centered) / X_centered.shape[0] # Compute eigenvalues and eigenvectors values, vectors = np.linalg.eig(cov_matrix) print("Eigenvalues:", values) print("Eigenvectors:\n", vectors)
copy
Note
Opmerking

De eigenvector met de grootste eigenwaarde wijst in de richting van de grootste variantie in de data. Dit is de eerste hoofdcomponent.

question mark

Wat is de rol van eigenwaarden en eigenvectoren van de covariantiematrix in PCA

Select the correct answer

Was alles duidelijk?

Hoe kunnen we het verbeteren?

Bedankt voor je feedback!

Sectie 2. Hoofdstuk 2
some-alt