Contenu du cours
Régression Linéaire Avec Python
Régression Linéaire Avec Python
Trouver les Paramètres
Nous savons maintenant que la régression linéaire est simplement une ligne qui s'ajuste le mieux aux données. Mais comment pouvez-vous dire laquelle est la bonne ?
Eh bien, vous pouvez calculer la différence entre la valeur prédite et la valeur cible réelle pour chaque point de données dans l'ensemble d'entraînement.
Ces différences sont appelées résidus (ou erreurs). Et l'objectif est de rendre les résidus aussi petits que possible.
Moindres Carrés Ordinaires
L'approche par défaut est la méthode des Moindres Carrés Ordinaires (OLS) :
Prenez chaque résidu, élevez-le au carré (principalement pour éliminer le signe d'un résidu), et sommez-les tous.
Cela s'appelle SSR (Somme des résidus au carré). Et la tâche consiste à trouver les paramètres qui minimisent le SSR.
Équation Normale
Heureusement, nous n'avons pas besoin d'essayer toutes les lignes et de calculer le SSR pour elles. La tâche de minimiser le SSR a une solution mathématique qui n'est pas très coûteuse en calcul.
Cette solution s'appelle l'Équation Normale.
Cette équation nous donne les paramètres d'une ligne avec le SSR le plus faible.
Vous n'avez pas compris comment cela fonctionne ? Pas de soucis ! Ce sont des mathématiques assez complexes. Mais vous n'avez pas à calculer les paramètres à la main. De nombreuses bibliothèques ont déjà implémenté la régression linéaire.
Alors plongez dans les chapitres suivants. Ils vous montreront comment construire le modèle de régression linéaire en utilisant ces bibliothèques.
Quiz
1. Considérez l'image ci-dessus. Quelle ligne de régression est meilleure ?
2. y_true - y_predicted est appelé
Merci pour vos commentaires !