Afleiding van PCA met Behulp van Lineaire Algebra
PCA zoekt een nieuwe set assen, genaamd hoofdcomponenten, zodat de geprojecteerde data maximale variantie heeft. De eerste hoofdcomponent, aangeduid als w1, wordt gekozen om de variantie van de geprojecteerde data te maximaliseren:
Var(Xw1)Onder de voorwaarde dat ∥w1∥=1. De oplossing van dit maximalisatieprobleem is de eigenvector van de covariantiematrix die overeenkomt met de grootste eigenwaarde.
Het optimalisatieprobleem is:
wmax wTΣwonder de voorwaarde∥w∥=1De oplossing is elke vector w die voldoet aan Σw=λw, waarbij λ de bijbehorende eigenwaarde is. Met andere woorden, w is een eigenvector van de covariantiematrix Σ die hoort bij eigenwaarde λ.
12345678910111213import numpy as np # Assume cov_matrix from earlier X = np.array([[2.5, 2.4], [0.5, 0.7], [2.2, 2.9]]) X_centered = X - np.mean(X, axis=0) cov_matrix = (X_centered.T @ X_centered) / X_centered.shape[0] # Find the principal component (eigenvector with largest eigenvalue) values, vectors = np.linalg.eig(cov_matrix) principal_component = vectors[:, np.argmax(values)] print("First principal component:", principal_component)
Deze hoofdcomponent is de richting waarin de data de hoogste variantie heeft. Projectie van data op deze richting levert de meest informatieve eendimensionale representatie van de oorspronkelijke dataset op.
Bedankt voor je feedback!
Vraag AI
Vraag AI
Vraag wat u wilt of probeer een van de voorgestelde vragen om onze chat te starten.
Can you explain why the principal component is important in PCA?
How do I interpret the values of the principal component?
What does projecting data onto the principal component mean?
Geweldig!
Completion tarief verbeterd naar 8.33
Afleiding van PCA met Behulp van Lineaire Algebra
Veeg om het menu te tonen
PCA zoekt een nieuwe set assen, genaamd hoofdcomponenten, zodat de geprojecteerde data maximale variantie heeft. De eerste hoofdcomponent, aangeduid als w1, wordt gekozen om de variantie van de geprojecteerde data te maximaliseren:
Var(Xw1)Onder de voorwaarde dat ∥w1∥=1. De oplossing van dit maximalisatieprobleem is de eigenvector van de covariantiematrix die overeenkomt met de grootste eigenwaarde.
Het optimalisatieprobleem is:
wmax wTΣwonder de voorwaarde∥w∥=1De oplossing is elke vector w die voldoet aan Σw=λw, waarbij λ de bijbehorende eigenwaarde is. Met andere woorden, w is een eigenvector van de covariantiematrix Σ die hoort bij eigenwaarde λ.
12345678910111213import numpy as np # Assume cov_matrix from earlier X = np.array([[2.5, 2.4], [0.5, 0.7], [2.2, 2.9]]) X_centered = X - np.mean(X, axis=0) cov_matrix = (X_centered.T @ X_centered) / X_centered.shape[0] # Find the principal component (eigenvector with largest eigenvalue) values, vectors = np.linalg.eig(cov_matrix) principal_component = vectors[:, np.argmax(values)] print("First principal component:", principal_component)
Deze hoofdcomponent is de richting waarin de data de hoogste variantie heeft. Projectie van data op deze richting levert de meest informatieve eendimensionale representatie van de oorspronkelijke dataset op.
Bedankt voor je feedback!