Uitdaging: Een Perceptron Maken
Aangezien het doel is om een multilayer perceptron te implementeren, zal het aanmaken van een Perceptron-klasse het initialiseren van het model vereenvoudigen. Het enige attribuut, layers, is in wezen een lijst van Layer-objecten die de structuur van het netwerk bepalen:
class Perceptron:
def __init__(self, layers):
self.layers = layers
De variabelen die worden gebruikt om de lagen te initialiseren zijn als volgt:
input_size: het aantal invoerfeatures;hidden_size: het aantal neuronen in elke verborgen laag (beide verborgen lagen hebben in dit geval hetzelfde aantal neuronen);output_size: het aantal neuronen in de uitvoerlaag.
De structuur van de resulterende perceptron is als volgt:
Swipe to start coding
Het doel is om de basisstructuur van de perceptron op te zetten door de lagen te implementeren:
-
Voltooi de initialisatie van de laag (
__init__()-methode):- Initialiseer de gewichten-matrix (vorm is
(n_neurons, n_neurons)); - Initialiseer de biases-vector (vorm is
(n_neurons, 1)).
Vul deze met willekeurige waarden uit een uniforme verdeling in het bereik [−1,1). Gebruik hiervoor de functie
np.random.uniform(). - Initialiseer de gewichten-matrix (vorm is
-
Voltooi de voorwaartse propagatie van de laag (
forward()-methode):- Bereken de ruwe outputwaarden van de neuronen. Gebruik de functie
np.dot()voor het nemen van het inwendig product; - Pas de activatiefunctie toe op de ruwe outputs en retourneer het resultaat.
- Bereken de ruwe outputwaarden van de neuronen. Gebruik de functie
-
Definieer drie lagen:
- Twee verborgen lagen: elke laag bevat
hidden_sizeneuronen en gebruikt derelu-activatiefunctie; - Eén outputlaag: deze gebruikt de
sigmoid-activatiefunctie.
- Twee verborgen lagen: elke laag bevat
Oplossing
Bedankt voor je feedback!
single
Vraag AI
Vraag AI
Vraag wat u wilt of probeer een van de voorgestelde vragen om onze chat te starten.
Awesome!
Completion rate improved to 4
Uitdaging: Een Perceptron Maken
Veeg om het menu te tonen
Aangezien het doel is om een multilayer perceptron te implementeren, zal het aanmaken van een Perceptron-klasse het initialiseren van het model vereenvoudigen. Het enige attribuut, layers, is in wezen een lijst van Layer-objecten die de structuur van het netwerk bepalen:
class Perceptron:
def __init__(self, layers):
self.layers = layers
De variabelen die worden gebruikt om de lagen te initialiseren zijn als volgt:
input_size: het aantal invoerfeatures;hidden_size: het aantal neuronen in elke verborgen laag (beide verborgen lagen hebben in dit geval hetzelfde aantal neuronen);output_size: het aantal neuronen in de uitvoerlaag.
De structuur van de resulterende perceptron is als volgt:
Swipe to start coding
Het doel is om de basisstructuur van de perceptron op te zetten door de lagen te implementeren:
-
Voltooi de initialisatie van de laag (
__init__()-methode):- Initialiseer de gewichten-matrix (vorm is
(n_neurons, n_neurons)); - Initialiseer de biases-vector (vorm is
(n_neurons, 1)).
Vul deze met willekeurige waarden uit een uniforme verdeling in het bereik [−1,1). Gebruik hiervoor de functie
np.random.uniform(). - Initialiseer de gewichten-matrix (vorm is
-
Voltooi de voorwaartse propagatie van de laag (
forward()-methode):- Bereken de ruwe outputwaarden van de neuronen. Gebruik de functie
np.dot()voor het nemen van het inwendig product; - Pas de activatiefunctie toe op de ruwe outputs en retourneer het resultaat.
- Bereken de ruwe outputwaarden van de neuronen. Gebruik de functie
-
Definieer drie lagen:
- Twee verborgen lagen: elke laag bevat
hidden_sizeneuronen en gebruikt derelu-activatiefunctie; - Eén outputlaag: deze gebruikt de
sigmoid-activatiefunctie.
- Twee verborgen lagen: elke laag bevat
Oplossing
Bedankt voor je feedback!
single