Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Apprendre Détermination des Paramètres | Régression Logistique
Classification avec Python

bookDétermination des Paramètres

La régression logistique nécessite uniquement que l’ordinateur apprenne les meilleurs paramètres ββ. Pour cela, il est nécessaire de définir ce que signifie « meilleurs paramètres ». Rappelons le fonctionnement du modèle : il prédit la probabilité pp d’appartenir à la classe 1 :

p=σ(z)=σ(β0+β1x1+...)p = \sigma (z) = \sigma (\beta_0 + \beta_1x_1 + ...)

σ(z)=11+ez\sigma (z) = \frac{1}{1 + e^{-z}}

Évidemment, un modèle avec de bons paramètres est celui qui prédit une valeur élevée (proche de 1) pour pp lorsque l’instance appartient réellement à la classe 1, et une valeur faible (proche de 0) pour pp lorsque l’instance appartient à la classe 0.

Pour évaluer la qualité du modèle, une fonction de coût est utilisée. En régression linéaire, la fonction de coût utilisée était la MSE (erreur quadratique moyenne). Cette fois-ci, une fonction différente est employée :

Ici, pp représente la probabilité d'appartenir à la classe 1, telle que prédite par le modèle, tandis que yy désigne la valeur cible réelle.

Cette fonction pénalise non seulement les prédictions incorrectes, mais prend également en compte le degré de confiance du modèle dans ses prédictions. Comme illustré dans l'image ci-dessus, lorsque la valeur de pp correspond étroitement à yy (la cible réelle), la fonction de coût reste relativement faible, indiquant que le modèle a sélectionné la bonne classe avec confiance. À l'inverse, si la prédiction est incorrecte, la fonction de coût augmente de façon exponentielle à mesure que la confiance du modèle dans la mauvaise classe s'accroît.

Dans le contexte de la classification binaire avec une fonction sigmoïde, la fonction de coût utilisée est spécifiquement appelée perte d'entropie croisée binaire, comme montré ci-dessus. Il est important de noter qu'il existe également une forme générale appelée perte d'entropie croisée (ou entropie croisée catégorielle) utilisée pour les problèmes de classification multiclasse.

La perte d'entropie croisée catégorielle pour un seul exemple d'entraînement se calcule comme suit :

Categorical Cross-Entropy Loss=i=1Cyilog(pi)\text{Categorical Cross-Entropy Loss} = -\sum_{i=1}^{C} y_i \log(p_i)

  • CC est le nombre de classes ;
  • yiy_i est la valeur cible réelle (1 si la classe est la bonne, 0 sinon) ;
  • pip_i est la probabilité prédite que l'exemple appartienne à la classe ii.

On calcule la fonction de perte pour chaque exemple d'entraînement et on en prend la moyenne. Cette moyenne est appelée fonction de coût. La régression logistique trouve les paramètres β\beta qui minimisent la fonction de coût.

question mark

Laquelle de ces fonctions est utilisée comme perte dans les tâches de classification ?

Select the correct answer

Tout était clair ?

Comment pouvons-nous l'améliorer ?

Merci pour vos commentaires !

Section 2. Chapitre 2

Demandez à l'IA

expand

Demandez à l'IA

ChatGPT

Posez n'importe quelle question ou essayez l'une des questions suggérées pour commencer notre discussion

Suggested prompts:

Can you explain why binary cross-entropy is preferred over MSE for logistic regression?

What does the sigmoid function do in logistic regression?

How does the cost function help improve the model's predictions?

Awesome!

Completion rate improved to 4.17

bookDétermination des Paramètres

Glissez pour afficher le menu

La régression logistique nécessite uniquement que l’ordinateur apprenne les meilleurs paramètres ββ. Pour cela, il est nécessaire de définir ce que signifie « meilleurs paramètres ». Rappelons le fonctionnement du modèle : il prédit la probabilité pp d’appartenir à la classe 1 :

p=σ(z)=σ(β0+β1x1+...)p = \sigma (z) = \sigma (\beta_0 + \beta_1x_1 + ...)

σ(z)=11+ez\sigma (z) = \frac{1}{1 + e^{-z}}

Évidemment, un modèle avec de bons paramètres est celui qui prédit une valeur élevée (proche de 1) pour pp lorsque l’instance appartient réellement à la classe 1, et une valeur faible (proche de 0) pour pp lorsque l’instance appartient à la classe 0.

Pour évaluer la qualité du modèle, une fonction de coût est utilisée. En régression linéaire, la fonction de coût utilisée était la MSE (erreur quadratique moyenne). Cette fois-ci, une fonction différente est employée :

Ici, pp représente la probabilité d'appartenir à la classe 1, telle que prédite par le modèle, tandis que yy désigne la valeur cible réelle.

Cette fonction pénalise non seulement les prédictions incorrectes, mais prend également en compte le degré de confiance du modèle dans ses prédictions. Comme illustré dans l'image ci-dessus, lorsque la valeur de pp correspond étroitement à yy (la cible réelle), la fonction de coût reste relativement faible, indiquant que le modèle a sélectionné la bonne classe avec confiance. À l'inverse, si la prédiction est incorrecte, la fonction de coût augmente de façon exponentielle à mesure que la confiance du modèle dans la mauvaise classe s'accroît.

Dans le contexte de la classification binaire avec une fonction sigmoïde, la fonction de coût utilisée est spécifiquement appelée perte d'entropie croisée binaire, comme montré ci-dessus. Il est important de noter qu'il existe également une forme générale appelée perte d'entropie croisée (ou entropie croisée catégorielle) utilisée pour les problèmes de classification multiclasse.

La perte d'entropie croisée catégorielle pour un seul exemple d'entraînement se calcule comme suit :

Categorical Cross-Entropy Loss=i=1Cyilog(pi)\text{Categorical Cross-Entropy Loss} = -\sum_{i=1}^{C} y_i \log(p_i)

  • CC est le nombre de classes ;
  • yiy_i est la valeur cible réelle (1 si la classe est la bonne, 0 sinon) ;
  • pip_i est la probabilité prédite que l'exemple appartienne à la classe ii.

On calcule la fonction de perte pour chaque exemple d'entraînement et on en prend la moyenne. Cette moyenne est appelée fonction de coût. La régression logistique trouve les paramètres β\beta qui minimisent la fonction de coût.

question mark

Laquelle de ces fonctions est utilisée comme perte dans les tâches de classification ?

Select the correct answer

Tout était clair ?

Comment pouvons-nous l'améliorer ?

Merci pour vos commentaires !

Section 2. Chapitre 2
some-alt