Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Leer Kenmerkselectie Versus Kenmerkextractie | Introductie tot Dimensionaliteitsreductie
Quizzes & Challenges
Quizzes
Challenges
/
Dimensionaliteitsreductie met PCA

bookKenmerkselectie Versus Kenmerkextractie

Hoog-dimensionale datasets bevatten vaak meer kenmerken dan nodig is. Je kunt het aantal kenmerken verminderen met twee hoofdstrategieën: kenmerkselectie en kenmerkextractie.

  • Kenmerkselectie betekent dat alleen de belangrijkste oorspronkelijke kenmerken behouden blijven – vergelijkbaar met het kiezen van je favoriete fruit uit een mand;
  • Kenmerkextractie creëert nieuwe kenmerken door de oorspronkelijke te combineren of te transformeren – zoals het blenden van al het fruit tot een smoothie.

Principal Component Analysis (PCA) is een veelgebruikte methode voor kenmerkextractie, die later in detail wordt behandeld.

12345678910111213141516171819202122
import pandas as pd from sklearn.decomposition import PCA # Example dataset data = { 'height': [150, 160, 170, 180], 'weight': [50, 60, 70, 80], 'age': [20, 25, 30, 35], 'score': [85, 90, 95, 100] } df = pd.DataFrame(data) # Feature selection: pick only 'height' and 'weight' selected_features = df[['height', 'weight']] print("Selected features (feature selection):") print(selected_features) # Feature extraction: combine features using PCA (placeholder, details later) pca = PCA(n_components=2) extracted_features = pca.fit_transform(df) print("\nExtracted features (feature extraction, via PCA):") print(extracted_features)
copy
Note
Opmerking

PCA is een krachtige techniek voor kenmerkextractie die nieuwe kenmerken (hoofdcomponenten) creëert uit je oorspronkelijke data. De details over hoe PCA werkt worden behandeld in de volgende hoofdstukken.

Het verminderen van het aantal features kan patronen zichtbaar maken die mogelijk verborgen zijn in hogere dimensies. Met behulp van visualisatie kun je geselecteerde features plotten om clusters of trends duidelijker te onthullen. Bijvoorbeeld, door alleen de meest relevante features te plotten met seaborn, worden relaties in je data duidelijker, wat de interpretatie en analyse vergemakkelijkt.

question mark

Welke uitspraak beschrijft het verschil tussen feature selectie en feature extractie bij dimensionaliteitsreductie het beste?

Select the correct answer

Was alles duidelijk?

Hoe kunnen we het verbeteren?

Bedankt voor je feedback!

Sectie 1. Hoofdstuk 3

Vraag AI

expand

Vraag AI

ChatGPT

Vraag wat u wilt of probeer een van de voorgestelde vragen om onze chat te starten.

bookKenmerkselectie Versus Kenmerkextractie

Veeg om het menu te tonen

Hoog-dimensionale datasets bevatten vaak meer kenmerken dan nodig is. Je kunt het aantal kenmerken verminderen met twee hoofdstrategieën: kenmerkselectie en kenmerkextractie.

  • Kenmerkselectie betekent dat alleen de belangrijkste oorspronkelijke kenmerken behouden blijven – vergelijkbaar met het kiezen van je favoriete fruit uit een mand;
  • Kenmerkextractie creëert nieuwe kenmerken door de oorspronkelijke te combineren of te transformeren – zoals het blenden van al het fruit tot een smoothie.

Principal Component Analysis (PCA) is een veelgebruikte methode voor kenmerkextractie, die later in detail wordt behandeld.

12345678910111213141516171819202122
import pandas as pd from sklearn.decomposition import PCA # Example dataset data = { 'height': [150, 160, 170, 180], 'weight': [50, 60, 70, 80], 'age': [20, 25, 30, 35], 'score': [85, 90, 95, 100] } df = pd.DataFrame(data) # Feature selection: pick only 'height' and 'weight' selected_features = df[['height', 'weight']] print("Selected features (feature selection):") print(selected_features) # Feature extraction: combine features using PCA (placeholder, details later) pca = PCA(n_components=2) extracted_features = pca.fit_transform(df) print("\nExtracted features (feature extraction, via PCA):") print(extracted_features)
copy
Note
Opmerking

PCA is een krachtige techniek voor kenmerkextractie die nieuwe kenmerken (hoofdcomponenten) creëert uit je oorspronkelijke data. De details over hoe PCA werkt worden behandeld in de volgende hoofdstukken.

Het verminderen van het aantal features kan patronen zichtbaar maken die mogelijk verborgen zijn in hogere dimensies. Met behulp van visualisatie kun je geselecteerde features plotten om clusters of trends duidelijker te onthullen. Bijvoorbeeld, door alleen de meest relevante features te plotten met seaborn, worden relaties in je data duidelijker, wat de interpretatie en analyse vergemakkelijkt.

question mark

Welke uitspraak beschrijft het verschil tussen feature selectie en feature extractie bij dimensionaliteitsreductie het beste?

Select the correct answer

Was alles duidelijk?

Hoe kunnen we het verbeteren?

Bedankt voor je feedback!

Sectie 1. Hoofdstuk 3
some-alt