Gradients dans PyTorch
Les gradients sont essentiels dans les tâches d'optimisation telles que l'entraînement des réseaux de neurones, où ils permettent d'ajuster les poids et les biais afin de minimiser l'erreur. Dans PyTorch, ils sont calculés automatiquement grâce au module autograd
, qui suit les opérations sur les tenseurs et calcule efficacement les dérivées.
Activation du suivi des gradients
Pour activer le suivi des gradients pour un tenseur, l'argument requires_grad=True
est utilisé lors de la création du tenseur. Cela indique à PyTorch de suivre toutes les opérations sur le tenseur pour le calcul des gradients.
1234import torch # Create a tensor with gradient tracking enabled tensor = torch.tensor(2.0, requires_grad=True) print(tensor)
Construction d'un graphe computationnel
PyTorch construit un graphe computationnel dynamique lors de l'exécution d'opérations sur des tenseurs avec requires_grad=True
. Ce graphe enregistre les relations entre les tenseurs et les opérations, permettant ainsi la différentiation automatique.
Nous allons commencer par définir une fonction polynomiale relativement simple :
y = 5x
L'objectif est de calculer la dérivée par rapport à x
en x = 2
.
123456import torch # Define the tensor x = torch.tensor(2.0, requires_grad=True) # Define the function y = 5 * x ** 3 + 2 * x ** 2 + 4 * x + 8 print(f"Function output: {y}")
La visualisation de ce graphe computationnel créée à l'aide de la bibliothèque PyTorchViz peut sembler quelque peu complexe, mais elle transmet efficacement l'idée principale :
Calcul des gradients
Pour calculer le gradient, la méthode backward()
doit être appelée sur le tenseur de sortie. Cela calcule la dérivée de la fonction par rapport au tenseur d'entrée.
Le gradient calculé peut ensuite être consulté via l'attribut .grad
.
12345678import torch x = torch.tensor(2.0, requires_grad=True) y = 5 * x ** 3 + 2 * x ** 2 + 4 * x + 8 # Perform backpropagation y.backward() # Print the gradient of x grad = x.grad print(f"Gradient of x: {grad}")
Le gradient calculé correspond à la dérivée de y
par rapport à x
, évaluée en x = 2
.
Merci pour vos commentaires !
Demandez à l'IA
Demandez à l'IA
Posez n'importe quelle question ou essayez l'une des questions suggérées pour commencer notre discussion
Awesome!
Completion rate improved to 5
Gradients dans PyTorch
Glissez pour afficher le menu
Les gradients sont essentiels dans les tâches d'optimisation telles que l'entraînement des réseaux de neurones, où ils permettent d'ajuster les poids et les biais afin de minimiser l'erreur. Dans PyTorch, ils sont calculés automatiquement grâce au module autograd
, qui suit les opérations sur les tenseurs et calcule efficacement les dérivées.
Activation du suivi des gradients
Pour activer le suivi des gradients pour un tenseur, l'argument requires_grad=True
est utilisé lors de la création du tenseur. Cela indique à PyTorch de suivre toutes les opérations sur le tenseur pour le calcul des gradients.
1234import torch # Create a tensor with gradient tracking enabled tensor = torch.tensor(2.0, requires_grad=True) print(tensor)
Construction d'un graphe computationnel
PyTorch construit un graphe computationnel dynamique lors de l'exécution d'opérations sur des tenseurs avec requires_grad=True
. Ce graphe enregistre les relations entre les tenseurs et les opérations, permettant ainsi la différentiation automatique.
Nous allons commencer par définir une fonction polynomiale relativement simple :
y = 5x
L'objectif est de calculer la dérivée par rapport à x
en x = 2
.
123456import torch # Define the tensor x = torch.tensor(2.0, requires_grad=True) # Define the function y = 5 * x ** 3 + 2 * x ** 2 + 4 * x + 8 print(f"Function output: {y}")
La visualisation de ce graphe computationnel créée à l'aide de la bibliothèque PyTorchViz peut sembler quelque peu complexe, mais elle transmet efficacement l'idée principale :
Calcul des gradients
Pour calculer le gradient, la méthode backward()
doit être appelée sur le tenseur de sortie. Cela calcule la dérivée de la fonction par rapport au tenseur d'entrée.
Le gradient calculé peut ensuite être consulté via l'attribut .grad
.
12345678import torch x = torch.tensor(2.0, requires_grad=True) y = 5 * x ** 3 + 2 * x ** 2 + 4 * x + 8 # Perform backpropagation y.backward() # Print the gradient of x grad = x.grad print(f"Gradient of x: {grad}")
Le gradient calculé correspond à la dérivée de y
par rapport à x
, évaluée en x = 2
.
Merci pour vos commentaires !