Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Lernen Herausforderung: Erstellen Einer Neuronalen Netzwerkschicht | Tensoren
Einführung in TensorFlow
course content

Kursinhalt

Einführung in TensorFlow

Einführung in TensorFlow

1. Tensoren
2. Grundlagen von TensorFlow

book
Herausforderung: Erstellen Einer Neuronalen Netzwerkschicht

Einzelne Neuronale Netzwerkebene

In einem einfachen Feedforward-Neuronalen Netzwerk wird der Ausgang eines Neurons in einer Ebene unter Verwendung der gewichteten Summe seiner Eingaben berechnet, die durch eine Aktivierungsfunktion geleitet wird. Dies kann dargestellt werden als:

output = activation(inputs * weights + bias)

Wo:

  • weights: Eine Matrix, die die mit den Verbindungen zum Neuron verbundenen Gewichte darstellt;
  • inputs: Eine Spaltenmatrix (oder Vektor), die die Eingabewerte zum Neuron darstellt;
  • bias: Ein Skalarwert;
  • activation: Eine Aktivierungsfunktion, wie die Sigmoid-Funktion.

Um die beste Leistung zu erzielen, werden alle Berechnungen unter Verwendung von Matrizen durchgeführt. Wir werden diese Aufgabe auf die gleiche Weise bewältigen.

Aufgabe

Swipe to start coding

Gegeben sind Gewichte, Eingaben und Bias für eine einzelne Neuronenschicht, berechnen Sie deren Ausgabe mittels Matrizenmultiplikation und der Sigmoid-Aktivierungsfunktion. Betrachten Sie eine Schicht mit 3 Eingaben und 2 Neuronen, die eine einzelne Charge mit nur einem Beispiel enthält.

  1. Bestimmung der Formen:

    • Die Form der Eingabematrix I sollte ihre erste Dimension darstellen, die die Anzahl der Beispiele in der Charge repräsentiert. Bei einem Beispiel mit 3 Eingaben beträgt ihre Größe 1x3.
    • Die Gewichtsmatrix W sollte ihre Spalten als Eingabewerte für jedes Neuron darstellen. Für 2 Neuronen mit 3 Eingaben ist die erwartete Form 3x2. Dies ist nicht der Fall, daher müssen Sie die Gewichtsmatrix transponieren, um die erforderliche Form zu erreichen.
  2. Matrizenmultiplikation:

    • Mit den Matrizen in der richtigen Form, führen Sie die Matrizenmultiplikation durch.
    • Denken Sie daran, dass bei der Matrizenmultiplikation das Ergebnis aus dem Skalarprodukt von jeder Zeile der ersten Matrix mit jeder Spalte der zweiten Matrix abgeleitet wird. Stellen Sie sicher, dass Sie in der richtigen Reihenfolge multiplizieren.
  3. Bias-Addition:

    • Führen Sie einfach eine elementweise Addition des Ergebnisses der Matrizenmultiplikation mit dem Bias durch.
  4. Anwendung der Aktivierung:

    • Verwenden Sie die Sigmoid-Aktivierungsfunktion auf das Ergebnis der Bias-Addition, um die Ausgabe des Neurons zu erhalten.
    • TensorFlow bietet die Sigmoid-Funktion als tf.sigmoid() an.

Hinweis

Am Ende des Kurses werden wir uns mit der Implementierung eines vollständigen Feed-Forward-Netzwerks mit TensorFlow befassen. Diese Übung legt den Grundstein dafür.

Lösung

Switch to desktopWechseln Sie zum Desktop, um in der realen Welt zu übenFahren Sie dort fort, wo Sie sind, indem Sie eine der folgenden Optionen verwenden
War alles klar?

Wie können wir es verbessern?

Danke für Ihr Feedback!

Abschnitt 1. Kapitel 10
toggle bottom row

book
Herausforderung: Erstellen Einer Neuronalen Netzwerkschicht

Einzelne Neuronale Netzwerkebene

In einem einfachen Feedforward-Neuronalen Netzwerk wird der Ausgang eines Neurons in einer Ebene unter Verwendung der gewichteten Summe seiner Eingaben berechnet, die durch eine Aktivierungsfunktion geleitet wird. Dies kann dargestellt werden als:

output = activation(inputs * weights + bias)

Wo:

  • weights: Eine Matrix, die die mit den Verbindungen zum Neuron verbundenen Gewichte darstellt;
  • inputs: Eine Spaltenmatrix (oder Vektor), die die Eingabewerte zum Neuron darstellt;
  • bias: Ein Skalarwert;
  • activation: Eine Aktivierungsfunktion, wie die Sigmoid-Funktion.

Um die beste Leistung zu erzielen, werden alle Berechnungen unter Verwendung von Matrizen durchgeführt. Wir werden diese Aufgabe auf die gleiche Weise bewältigen.

Aufgabe

Swipe to start coding

Gegeben sind Gewichte, Eingaben und Bias für eine einzelne Neuronenschicht, berechnen Sie deren Ausgabe mittels Matrizenmultiplikation und der Sigmoid-Aktivierungsfunktion. Betrachten Sie eine Schicht mit 3 Eingaben und 2 Neuronen, die eine einzelne Charge mit nur einem Beispiel enthält.

  1. Bestimmung der Formen:

    • Die Form der Eingabematrix I sollte ihre erste Dimension darstellen, die die Anzahl der Beispiele in der Charge repräsentiert. Bei einem Beispiel mit 3 Eingaben beträgt ihre Größe 1x3.
    • Die Gewichtsmatrix W sollte ihre Spalten als Eingabewerte für jedes Neuron darstellen. Für 2 Neuronen mit 3 Eingaben ist die erwartete Form 3x2. Dies ist nicht der Fall, daher müssen Sie die Gewichtsmatrix transponieren, um die erforderliche Form zu erreichen.
  2. Matrizenmultiplikation:

    • Mit den Matrizen in der richtigen Form, führen Sie die Matrizenmultiplikation durch.
    • Denken Sie daran, dass bei der Matrizenmultiplikation das Ergebnis aus dem Skalarprodukt von jeder Zeile der ersten Matrix mit jeder Spalte der zweiten Matrix abgeleitet wird. Stellen Sie sicher, dass Sie in der richtigen Reihenfolge multiplizieren.
  3. Bias-Addition:

    • Führen Sie einfach eine elementweise Addition des Ergebnisses der Matrizenmultiplikation mit dem Bias durch.
  4. Anwendung der Aktivierung:

    • Verwenden Sie die Sigmoid-Aktivierungsfunktion auf das Ergebnis der Bias-Addition, um die Ausgabe des Neurons zu erhalten.
    • TensorFlow bietet die Sigmoid-Funktion als tf.sigmoid() an.

Hinweis

Am Ende des Kurses werden wir uns mit der Implementierung eines vollständigen Feed-Forward-Netzwerks mit TensorFlow befassen. Diese Übung legt den Grundstein dafür.

Lösung

Switch to desktopWechseln Sie zum Desktop, um in der realen Welt zu übenFahren Sie dort fort, wo Sie sind, indem Sie eine der folgenden Optionen verwenden
War alles klar?

Wie können wir es verbessern?

Danke für Ihr Feedback!

Abschnitt 1. Kapitel 10
Switch to desktopWechseln Sie zum Desktop, um in der realen Welt zu übenFahren Sie dort fort, wo Sie sind, indem Sie eine der folgenden Optionen verwenden
We're sorry to hear that something went wrong. What happened?
some-alt