Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Leer Afleiding van PCA met Behulp van Lineaire Algebra | Wiskundige Grondslagen van PCA
Dimensionaliteitsreductie met PCA

bookAfleiding van PCA met Behulp van Lineaire Algebra

PCA zoekt een nieuwe set assen, genaamd hoofdcomponenten, zodat de geprojecteerde data maximale variantie heeft. De eerste hoofdcomponent, aangeduid als w1w_{\raisebox{-0.5pt}{$1$}}, wordt gekozen om de variantie van de geprojecteerde data te maximaliseren:

Var(Xw1)\mathrm{Var}(X w_1)

Onder de voorwaarde dat w1=1\|w_{\raisebox{-0.5pt}{$1$}}\| = 1. De oplossing van dit maximalisatieprobleem is de eigenvector van de covariantiematrix die overeenkomt met de grootste eigenwaarde.

Het optimalisatieprobleem is:

maxw wTΣwonder de voorwaardew=1\max_{w} \ w^T \Sigma w \quad \text{onder de voorwaarde} \quad \|w\| = 1

De oplossing is elke vector ww die voldoet aan Σw=λw\Sigma w = \lambda w, waarbij λ\lambda de bijbehorende eigenwaarde is. Met andere woorden, ww is een eigenvector van de covariantiematrix Σ\Sigma die hoort bij eigenwaarde λ\lambda.

12345678910111213
import numpy as np # Assume cov_matrix from earlier X = np.array([[2.5, 2.4], [0.5, 0.7], [2.2, 2.9]]) X_centered = X - np.mean(X, axis=0) cov_matrix = (X_centered.T @ X_centered) / X_centered.shape[0] # Find the principal component (eigenvector with largest eigenvalue) values, vectors = np.linalg.eig(cov_matrix) principal_component = vectors[:, np.argmax(values)] print("First principal component:", principal_component)
copy

Deze hoofdcomponent is de richting waarin de data de hoogste variantie heeft. Projectie van data op deze richting levert de meest informatieve eendimensionale representatie van de oorspronkelijke dataset op.

question mark

Welke uitspraak beschrijft het beste de rol van de covariantiematrix bij de afleiding van PCA met behulp van lineaire algebra?

Select the correct answer

Was alles duidelijk?

Hoe kunnen we het verbeteren?

Bedankt voor je feedback!

Sectie 2. Hoofdstuk 3

Vraag AI

expand

Vraag AI

ChatGPT

Vraag wat u wilt of probeer een van de voorgestelde vragen om onze chat te starten.

Suggested prompts:

Can you explain why the principal component is important in PCA?

How do I interpret the values of the principal component?

What does projecting data onto the principal component mean?

bookAfleiding van PCA met Behulp van Lineaire Algebra

Veeg om het menu te tonen

PCA zoekt een nieuwe set assen, genaamd hoofdcomponenten, zodat de geprojecteerde data maximale variantie heeft. De eerste hoofdcomponent, aangeduid als w1w_{\raisebox{-0.5pt}{$1$}}, wordt gekozen om de variantie van de geprojecteerde data te maximaliseren:

Var(Xw1)\mathrm{Var}(X w_1)

Onder de voorwaarde dat w1=1\|w_{\raisebox{-0.5pt}{$1$}}\| = 1. De oplossing van dit maximalisatieprobleem is de eigenvector van de covariantiematrix die overeenkomt met de grootste eigenwaarde.

Het optimalisatieprobleem is:

maxw wTΣwonder de voorwaardew=1\max_{w} \ w^T \Sigma w \quad \text{onder de voorwaarde} \quad \|w\| = 1

De oplossing is elke vector ww die voldoet aan Σw=λw\Sigma w = \lambda w, waarbij λ\lambda de bijbehorende eigenwaarde is. Met andere woorden, ww is een eigenvector van de covariantiematrix Σ\Sigma die hoort bij eigenwaarde λ\lambda.

12345678910111213
import numpy as np # Assume cov_matrix from earlier X = np.array([[2.5, 2.4], [0.5, 0.7], [2.2, 2.9]]) X_centered = X - np.mean(X, axis=0) cov_matrix = (X_centered.T @ X_centered) / X_centered.shape[0] # Find the principal component (eigenvector with largest eigenvalue) values, vectors = np.linalg.eig(cov_matrix) principal_component = vectors[:, np.argmax(values)] print("First principal component:", principal_component)
copy

Deze hoofdcomponent is de richting waarin de data de hoogste variantie heeft. Projectie van data op deze richting levert de meest informatieve eendimensionale representatie van de oorspronkelijke dataset op.

question mark

Welke uitspraak beschrijft het beste de rol van de covariantiematrix bij de afleiding van PCA met behulp van lineaire algebra?

Select the correct answer

Was alles duidelijk?

Hoe kunnen we het verbeteren?

Bedankt voor je feedback!

Sectie 2. Hoofdstuk 3
some-alt