Contenu du cours
Classification Avec Python
Classification Avec Python
5. Comparer les Modèles
Résumé de la Régression Logistique
Examinons de plus près les avantages et les inconvénients de la régression logistique.
- La régression logistique utilise un processus itératif appelé descente de gradient pour trouver les paramètres.
Étant donné que l'entraînement est un processus itératif, à n'importe quelle itération, vous pouvez ajouter sans problème de nouvelles données d'entraînement. Même une fois qu'il est entraîné, vous pouvez fournir des données d'entraînement supplémentaires et effectuer quelques itérations de plus pour améliorer le modèle ; - La régression logistique est rapide.
Comparé à d'autres algorithmes, le temps d'entraînement est assez court.
Les prédictions sont également très rapides, contrairement au classificateur k-NN.
De plus, la complexité computationnelle est linéaire par rapport à la taille du jeu de données. Cela signifie que la régression logistique est rapide à entraîner avec des jeux de données contenant beaucoup d'instances ; - La régression logistique s'adapte mal au nombre de caractéristiques.
Le modèle souffre d'une malédiction de la dimensionnalité. Pour qu'il fonctionne bien avec un nombre respectable de caractéristiques, vous avez besoin de beaucoup d'instances.
De plus, la classePolynomialFeatures
crée de nombreuses caractéristiques, ce qui aggrave encore les choses ; - La régression logistique prédit des probabilités. L'une des étapes que la régression logistique effectue est la prédiction des probabilités. Cela peut être utile dans de nombreuses tâches lorsque nous avons besoin de savoir à quel point le modèle est confiant dans ses prédictions.
Pour résumer, voici un tableau avec les avantages et les inconvénients de la régression logistique.
Avantages | Inconvénients |
---|---|
Entraînement rapide | Avec régularisation, nécessite une mise à l'échelle des caractéristiques |
S'adapte bien à un grand nombre d'instances d'entraînement | Frontière de décision linéaire sans les PolynomialFeatures |
Facile d'ajouter de nouvelles données d'entraînement | Ne fonctionne pas bien avec un grand nombre de caractéristiques |
Prédictions rapides | Sujet au surapprentissage, surtout avec PolynomialFeatures |
Prédit des probabilités |
Dans l'ensemble, la régression logistique est un bon algorithme pour des tâches simples avec peu de caractéristiques. Mais elle gère mal les données avec de nombreuses caractéristiques.
Tout était clair ?
Merci pour vos commentaires !
Section 2. Chapitre 7