Typen
:Konstrukte
:Generalisierungen
:Eigenschaften
:Involvierte Definitionen
:Veranstaltung
: EMLReferenz
: @thimm2024 (Abschnitt 5.3.1)
⠀
Definition: Rekurrenter Layer
Als Rekurrenten Layer bezeichnen wir einen Layer-Typen neuronaler Netzwerke, der zusätzlich zur Eingabe
einen internen hidden state hält. Sei
die aktuelle Eingabe.
Seider Hidden State des letzten Schrittes.
Seiendie Gewichtsmatrizen des Layers, seien die Bias-Terme. In jedem Schritt erhalten wir zwei Ergebnisse:
- der neue Hidden State:
- der Output:
Für eine Sequenz
erhalten wir als Berechnungsgraphen:
Anmerkung
Wie wird
initialisiert? Für die Initialisierung des ersten Hidden States
gibt es drei häufige Ansätze:
- Null-Initialisierung, also
, - Random-Initialisierung, bspw. auf Basis einer Normalverteilung,
- Lernbar,
wird also anhand von Backpropagation trainiert.
Kompakter Berechnungsgaph
Allgemein lässt sich der Berechnungsgraph eines rekurrenten Layers reduziert darstellen durch
Die Schleife steht für die Einbeziehung des Hidden States
im Schritt .