Definition: Sparse Autoencoder

Als Sparse Autoencoder (kurz SAE) bezeichnen wir eine Variante des Autoencoders, die darauf abzielt, eine latente Repräsentation zu lernen, bei der nur eine geringe Anzahl der Neuronen aktiviert wird.

Dies wird durch Hinzufügen einer Sparsity-Bedingung während des Trainings erreicht, durch die die Aktivierungen der meisten Neuronen in der Bottleneck-Schicht inaktiv (d.h. nahe Null) bleiben.

Bei dieser Sparsity-Bedingung kann es sich beispielsweise um eine L2-Regularisierung handeln. Die Fehlerfunktion erhalten wir also durch:

wobei der Encoder, der Decoder und der Regularisierungsparameter seien.

In der Regel handelt es sich bei SAEs um overcomplete-Autoencoder, deren “Bottleneck”-Schicht mehr Neuronen enthält, als die Ein- und Ausgabe Schichten, also .

1

Footnotes

  1. Sparse AE durch Masking statt L2-Regularisierung: Dhengre, Sinha, 2022