Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Apprendre Valeurs Propres et Vecteurs Propres | Algèbre Linéaire
Mathématiques pour l'Analyse de Données et la Modélisation
course content

Contenu du cours

Mathématiques pour l'Analyse de Données et la Modélisation

Mathématiques pour l'Analyse de Données et la Modélisation

1. Concepts Mathématiques de Base et Définitions
2. Algèbre Linéaire
3. Analyse Mathématique

book
Valeurs Propres et Vecteurs Propres

Les vecteurs propres et les valeurs propres sont des concepts liés aux transformations linéaires et aux matrices. Un vecteur propre v est un vecteur non nul qui résulte en une version mise à l'échelle de lui-même lorsqu'il est multiplié par une matrice donnée. La valeur propre λ associée à un vecteur propre représente la valeur scalaire par laquelle le vecteur propre est mis à l'échelle.

Si nous avons une matrice A et fournissons la transformation linéaire A * v, où v est le vecteur propre de la matrice A, nous obtiendrons le vecteur avec la même direction mais avec une longueur différente :

Calcul des valeurs propres et des vecteurs propres

Pour trouver les vecteurs propres et les valeurs propres correspondantes d'une matrice, nous pouvons utiliser la méthode np.linalg.eig():

123456789101112
import numpy as np # Define a square matrix matrix = np.array([[2, 1, 3], [1, 3, 0], [3, 0, 4]]) # Calculate eigenvectors and eigenvalues eigenvalues, eigenvectors = np.linalg.eig(matrix) # Print the eigenvalues and eigenvectors for i in range(len(eigenvalues)): print(f'Eigenvalue {i+1}: {eigenvalues[i]:.3f}') print(f'Eigenvector {i+1}: {np.round(eigenvectors[:, i], 3)}\n')
copy

Dans cet exemple, nous créons une matrice matrix 3x3. Nous utilisons ensuite la méthode np.linalg.eig() de NumPy pour calculer les valeurs propres et les vecteurs propres. La fonction renvoie deux tableaux : eigenvalues contient les valeurs propres, et eigenvectors contient les vecteurs propres correspondants.

Applications pratiques

Les valeurs propres et les vecteurs sont souvent utilisés pour résoudre divers problèmes appliqués. L'un de ces problèmes est le problème de la réduction de dimensionnalité pour lequel l'algorithme PCA est utilisé : cet algorithme est basé sur l'utilisation des valeurs propres de la matrice de covariance des caractéristiques.

Note

La réduction de dimensionnalité est un problème fondamental en analyse de données et en apprentissage automatique, visant à réduire le nombre de caractéristiques ou de variables dans un ensemble de données tout en préservant autant d'informations pertinentes que possible.

Supposons que `v = [2, 4, 6]` est un vecteur propre de la matrice `A` qui correspond à la valeur propre `λ=2`. Calculez le résultat de la multiplication matricielle `A * v`.

Supposons que v = [2, 4, 6] est un vecteur propre de la matrice A qui correspond à la valeur propre λ=2. Calculez le résultat de la multiplication matricielle A * v.

Sélectionnez la réponse correcte

Tout était clair ?

Comment pouvons-nous l'améliorer ?

Merci pour vos commentaires !

Section 2. Chapitre 9
We're sorry to hear that something went wrong. What happened?
some-alt