Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Lernen Mehrstufige Rückwärtspropagation | Fortgeschrittenere Konzepte
Pytorch Grundlagen
course content

Kursinhalt

Pytorch Grundlagen

Pytorch Grundlagen

1. Einführung in PyTorch
2. Fortgeschrittenere Konzepte
3. Neuronale Netzwerke in PyTorch

book
Mehrstufige Rückwärtspropagation

Wie Tensorflow ermöglicht auch PyTorch den Aufbau komplexerer Rechengraphen, die mehrere Zwischentensoren umfassen.

12345678910111213
import torch # Create a 2D tensor with gradient tracking x = torch.tensor([[1.0, 2.0, 3.0], [3.0, 2.0, 1.0]], requires_grad=True) # Define intermediate layers y = 6 * x + 3 z = 10 * y ** 2 # Compute the mean of the final output output_mean = z.mean() print(f"Output: {output_mean}") # Perform backpropagation output_mean.backward() # Print the gradient of x print("Gradient of x:\n", x.grad)
copy

Der Gradient von output_mean in Bezug auf x wird unter Verwendung der Kettenregel berechnet. Das Ergebnis zeigt, wie stark eine kleine Änderung in jedem Element von x output_mean beeinflusst.

Deaktivierung der Gradientenverfolgung

In einigen Fällen möchten Sie möglicherweise die Gradientenverfolgung deaktivieren, um Speicher und Rechenleistung zu sparen. Da requires_grad=False das Standardverhalten ist, können Sie den Tensor einfach ohne Angabe dieses Parameters erstellen:

Aufgabe

Swipe to start coding

Sie sind beauftragt, ein einfaches neuronales Netzwerk in PyTorch zu erstellen. Ihr Ziel ist es, den Gradienten des Verlusts in Bezug auf die Gewichtsmatrix zu berechnen.

  1. Definieren Sie eine zufällige Gewichtsmatrix (Tensor) W der Form 1x3, initialisiert mit Werten aus einer gleichmäßigen Verteilung über [0, 1], mit aktivierter Gradientenverfolgung.
  2. Erstellen Sie eine Eingabematrix (Tensor) X basierend auf dieser Liste: [[1.0, 2.0], [3.0, 4.0], [5.0, 6.0]].
  3. Führen Sie eine Matrixmultiplikation durch, um Y zu berechnen.
  4. Berechnen Sie den mittleren quadratischen Fehler (MSE): loss = mean((Y - Ytarget)2).
  5. Berechnen Sie den Gradienten des Verlusts (loss) in Bezug auf W mittels Backpropagation.
  6. Drucken Sie den berechneten Gradienten von W.

Lösung

Switch to desktopWechseln Sie zum Desktop, um in der realen Welt zu übenFahren Sie dort fort, wo Sie sind, indem Sie eine der folgenden Optionen verwenden
War alles klar?

Wie können wir es verbessern?

Danke für Ihr Feedback!

Abschnitt 2. Kapitel 2
toggle bottom row

book
Mehrstufige Rückwärtspropagation

Wie Tensorflow ermöglicht auch PyTorch den Aufbau komplexerer Rechengraphen, die mehrere Zwischentensoren umfassen.

12345678910111213
import torch # Create a 2D tensor with gradient tracking x = torch.tensor([[1.0, 2.0, 3.0], [3.0, 2.0, 1.0]], requires_grad=True) # Define intermediate layers y = 6 * x + 3 z = 10 * y ** 2 # Compute the mean of the final output output_mean = z.mean() print(f"Output: {output_mean}") # Perform backpropagation output_mean.backward() # Print the gradient of x print("Gradient of x:\n", x.grad)
copy

Der Gradient von output_mean in Bezug auf x wird unter Verwendung der Kettenregel berechnet. Das Ergebnis zeigt, wie stark eine kleine Änderung in jedem Element von x output_mean beeinflusst.

Deaktivierung der Gradientenverfolgung

In einigen Fällen möchten Sie möglicherweise die Gradientenverfolgung deaktivieren, um Speicher und Rechenleistung zu sparen. Da requires_grad=False das Standardverhalten ist, können Sie den Tensor einfach ohne Angabe dieses Parameters erstellen:

Aufgabe

Swipe to start coding

Sie sind beauftragt, ein einfaches neuronales Netzwerk in PyTorch zu erstellen. Ihr Ziel ist es, den Gradienten des Verlusts in Bezug auf die Gewichtsmatrix zu berechnen.

  1. Definieren Sie eine zufällige Gewichtsmatrix (Tensor) W der Form 1x3, initialisiert mit Werten aus einer gleichmäßigen Verteilung über [0, 1], mit aktivierter Gradientenverfolgung.
  2. Erstellen Sie eine Eingabematrix (Tensor) X basierend auf dieser Liste: [[1.0, 2.0], [3.0, 4.0], [5.0, 6.0]].
  3. Führen Sie eine Matrixmultiplikation durch, um Y zu berechnen.
  4. Berechnen Sie den mittleren quadratischen Fehler (MSE): loss = mean((Y - Ytarget)2).
  5. Berechnen Sie den Gradienten des Verlusts (loss) in Bezug auf W mittels Backpropagation.
  6. Drucken Sie den berechneten Gradienten von W.

Lösung

Switch to desktopWechseln Sie zum Desktop, um in der realen Welt zu übenFahren Sie dort fort, wo Sie sind, indem Sie eine der folgenden Optionen verwenden
War alles klar?

Wie können wir es verbessern?

Danke für Ihr Feedback!

Abschnitt 2. Kapitel 2
Switch to desktopWechseln Sie zum Desktop, um in der realen Welt zu übenFahren Sie dort fort, wo Sie sind, indem Sie eine der folgenden Optionen verwenden
We're sorry to hear that something went wrong. What happened?
some-alt