Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Apprendre Activations Sigmoid et Tanh | Variantes Avancées des RNN
Introduction aux RNN

bookActivations Sigmoid et Tanh

Les fonctions d’activation sigmoïde et tanh sont étudiées, car elles jouent un rôle essentiel dans le fonctionnement des RNN.

Note
Définition

Les fonctions sigmoïde et tanh transforment les entrées en sorties, permettant au modèle d’effectuer des prédictions.

Sigmoïde
  • Activation sigmoïde : la fonction sigmoïde transforme les valeurs d'entrée en une plage de sortie comprise entre 0 et 1. Elle est couramment utilisée dans les tâches de classification binaire, car sa sortie peut être interprétée comme une probabilité. Cependant, elle souffre du problème du gradient qui disparaît lorsque les valeurs d'entrée sont très grandes ou très petites ;
  • Activation tanh : la fonction tanh est similaire à la sigmoïde mais transforme les valeurs d'entrée en une plage de sortie comprise entre -1 et 1. Elle permet de centrer les données autour de zéro, ce qui peut faciliter l'apprentissage. Malgré ses avantages, elle souffre également du problème du gradient qui disparaît dans certaines situations ;
  • Fonctionnement de la sigmoïde et de tanh : les deux fonctions agissent en compressant les valeurs d'entrée dans une plage bornée. La principale différence réside dans leur plage de sortie : sigmoïde (0 à 1) contre tanh (-1 à 1), ce qui influence la manière dont le réseau traite et met à jour l'information.

Dans le prochain chapitre, nous examinerons comment ces fonctions d'activation jouent un rôle dans les réseaux LSTM et comment elles contribuent à surmonter certaines des limitations des RNN standards.

question mark

Quelle est la plage de sortie de la fonction d'activation sigmoïde ?

Select the correct answer

Tout était clair ?

Comment pouvons-nous l'améliorer ?

Merci pour vos commentaires !

Section 2. Chapitre 2

Demandez à l'IA

expand

Demandez à l'IA

ChatGPT

Posez n'importe quelle question ou essayez l'une des questions suggérées pour commencer notre discussion

Awesome!

Completion rate improved to 4.55

bookActivations Sigmoid et Tanh

Glissez pour afficher le menu

Les fonctions d’activation sigmoïde et tanh sont étudiées, car elles jouent un rôle essentiel dans le fonctionnement des RNN.

Note
Définition

Les fonctions sigmoïde et tanh transforment les entrées en sorties, permettant au modèle d’effectuer des prédictions.

Sigmoïde
  • Activation sigmoïde : la fonction sigmoïde transforme les valeurs d'entrée en une plage de sortie comprise entre 0 et 1. Elle est couramment utilisée dans les tâches de classification binaire, car sa sortie peut être interprétée comme une probabilité. Cependant, elle souffre du problème du gradient qui disparaît lorsque les valeurs d'entrée sont très grandes ou très petites ;
  • Activation tanh : la fonction tanh est similaire à la sigmoïde mais transforme les valeurs d'entrée en une plage de sortie comprise entre -1 et 1. Elle permet de centrer les données autour de zéro, ce qui peut faciliter l'apprentissage. Malgré ses avantages, elle souffre également du problème du gradient qui disparaît dans certaines situations ;
  • Fonctionnement de la sigmoïde et de tanh : les deux fonctions agissent en compressant les valeurs d'entrée dans une plage bornée. La principale différence réside dans leur plage de sortie : sigmoïde (0 à 1) contre tanh (-1 à 1), ce qui influence la manière dont le réseau traite et met à jour l'information.

Dans le prochain chapitre, nous examinerons comment ces fonctions d'activation jouent un rôle dans les réseaux LSTM et comment elles contribuent à surmonter certaines des limitations des RNN standards.

question mark

Quelle est la plage de sortie de la fonction d'activation sigmoïde ?

Select the correct answer

Tout était clair ?

Comment pouvons-nous l'améliorer ?

Merci pour vos commentaires !

Section 2. Chapitre 2
some-alt