Het Visualiseren van Verklaarde Variantie en Componentladingen
Na het toepassen van PCA is het belangrijk om te begrijpen hoeveel informatie (variantie) elke hoofdcomponent vastlegt. De verklaarde variantieverhouding geeft dit aan. U kunt ook de componentladingen bekijken om te zien hoe de oorspronkelijke kenmerken bijdragen aan elke hoofdcomponent.
1234567891011121314151617181920212223242526272829303132333435import numpy as np import pandas as pd from sklearn.datasets import load_iris from sklearn.preprocessing import StandardScaler from sklearn.decomposition import PCA import matplotlib.pyplot as plt import seaborn as sns # Load the Iris dataset data = load_iris() X = data.data feature_names = data.feature_names # Standardize features (important for PCA) scaler = StandardScaler() X_scaled = scaler.fit_transform(X) # Apply PCA to reduce to 2 components pca = PCA(n_components=2) X_pca = pca.fit_transform(X_scaled) # Plot explained variance ratio plt.figure(figsize=(6,4)) plt.bar(range(1, len(pca.explained_variance_ratio_)+1), pca.explained_variance_ratio_, alpha=0.7) plt.ylabel('Explained Variance Ratio') plt.xlabel('Principal Component') plt.title('Explained Variance by Principal Components') plt.show() # Display component loadings as a heatmap loadings = pd.DataFrame(pca.components_.T, columns=['PC1', 'PC2'], index=feature_names) plt.figure(figsize=(6,4)) sns.heatmap(loadings, annot=True, cmap='coolwarm') plt.title('Principal Component Loadings') plt.show()
Het staafdiagram toont het aandeel van de variantie dat door elke hoofdcomponent wordt verklaard. De heatmap geeft de ladingen weer, die aangeven hoeveel elk oorspronkelijk kenmerk bijdraagt aan elke hoofdcomponent. Grote absolute waarden betekenen dat een kenmerk belangrijk is voor die component.
Bedankt voor je feedback!
Vraag AI
Vraag AI
Vraag wat u wilt of probeer een van de voorgestelde vragen om onze chat te starten.
Geweldig!
Completion tarief verbeterd naar 8.33
Het Visualiseren van Verklaarde Variantie en Componentladingen
Veeg om het menu te tonen
Na het toepassen van PCA is het belangrijk om te begrijpen hoeveel informatie (variantie) elke hoofdcomponent vastlegt. De verklaarde variantieverhouding geeft dit aan. U kunt ook de componentladingen bekijken om te zien hoe de oorspronkelijke kenmerken bijdragen aan elke hoofdcomponent.
1234567891011121314151617181920212223242526272829303132333435import numpy as np import pandas as pd from sklearn.datasets import load_iris from sklearn.preprocessing import StandardScaler from sklearn.decomposition import PCA import matplotlib.pyplot as plt import seaborn as sns # Load the Iris dataset data = load_iris() X = data.data feature_names = data.feature_names # Standardize features (important for PCA) scaler = StandardScaler() X_scaled = scaler.fit_transform(X) # Apply PCA to reduce to 2 components pca = PCA(n_components=2) X_pca = pca.fit_transform(X_scaled) # Plot explained variance ratio plt.figure(figsize=(6,4)) plt.bar(range(1, len(pca.explained_variance_ratio_)+1), pca.explained_variance_ratio_, alpha=0.7) plt.ylabel('Explained Variance Ratio') plt.xlabel('Principal Component') plt.title('Explained Variance by Principal Components') plt.show() # Display component loadings as a heatmap loadings = pd.DataFrame(pca.components_.T, columns=['PC1', 'PC2'], index=feature_names) plt.figure(figsize=(6,4)) sns.heatmap(loadings, annot=True, cmap='coolwarm') plt.title('Principal Component Loadings') plt.show()
Het staafdiagram toont het aandeel van de variantie dat door elke hoofdcomponent wordt verklaard. De heatmap geeft de ladingen weer, die aangeven hoeveel elk oorspronkelijk kenmerk bijdraagt aan elke hoofdcomponent. Grote absolute waarden betekenen dat een kenmerk belangrijk is voor die component.
Bedankt voor je feedback!