Definition: ReLU-Aktivierungsfunktion

Als Rectified Linear Unit (kurz ReLU, de. Gleichrichter) bezeichnen wir eine Aktivierungsfunktion, die in neuronalen Netzen verwendet wird.

Die ReLU-Funktion hat den Vorteil, dass sie einfach zu berechnen ist, dass ihre Ableitung (mit Ausnahme der Unstetigkeit in ) leicht zu berechnen ist und das Problem der verschwindenden Gradienten mindert, was das Training tiefer neuronaler Netzwerke erleichtert.

Die folgende Illustration zeigt den Graphen der ReLU-Aktivierungsfunktion: