Definition: Softmax-Funktion

Als Softmax-Aktivierungsfunktion bezeichnen wir eine Verallgemeinerung der logistischen Sigmoidfunktion, die insbesondere in der Ausgangsschicht neuronalen Netzwerke zur Mehrklassen-Klassifikation verwendet wird.

Seien zwei Layer und mit jeweils Neuronen gegeben.

Das Ergebnis der Softmax-Funktion für ein Neuron der Schicht erhalten wir durch:

Diese Funktion transformiert eine Menge von Eingabewerten in Wahrscheinlichkeiten, die summiert ergeben.

Die Ergebnisse der Softmax-Transformation können anschließend als Wahrscheinlichkeitsverteilung der jeweiligen Klassen interpretiert werden.

Anmerkung

Allgemeine Formulierung

Für eine Vektor mit erhalten wir die -te Komponente der Softmax-Funktion durch: