Interaktive Visualisierung von Perceptron, Aktivierungsfunktionen und Grundlagen neuronaler Netze
Passen Sie Gewichte und Bias an, um zu sehen, wie das Perceptron seine Ausgabe berechnet
Ohne Aktivierungsfunktionen bleiben neuronale Netze linear unabhaengig von der Tiefe
Lineare Komposition von Linear = Linear
Vergleichen Sie verschiedene Aktivierungsfunktionen und ihre Ableitungen
Sehen Sie wie Gradienten durch verschiedene Aktivierungsfunktionen fliessen
Wenn f'(z) ~ 0, verschwindet der Gradient!
| Funktion | Grosses |z| Gradient | z=0 Gradient |
|---|---|---|
| Sigmoid | ≈0 (vanishing) | 0.25 |
| Tanh | ≈0 (vanishing) | 1.0 |
| ReLU | 1 (for z>0) | 0 or 1 |
| Swish | Smooth non-zero | 0.5 |
| GELU | Smooth non-zero | 0.5 |
Vergleichen Sie rein lineare Netze mit Netzen mit nichtlinearen Aktivierungen
Ein Feedforward-Netz mit mindestens einer verborgenen Schicht kann jede stetige Funktion auf kompakten Teilmengen von R^n approximieren
| Aufgabe | Aktivierung |
|---|---|
| Binaere Klassifikation | Sigmoid |
| Mehrklassen-Klassifikation | Softmax |
| Regression | Linear (keine) |
Lernen "was zu betrachten"
Lernen "Schwellenwert"
Lernen "wie zu reagieren"
Neuron = Lernbarer Merkmalstransformator mit nichtlinearer Gatterung
Das Perceptron ist die atomare Struktur neuronaler Netze
Aktivierungsfunktionen bestimmen ob Netze komplexe Muster lernen koennen
ReLU machte Deep Learning wirklich trainierbar
GELU/Swish machen grosse Modelle stabiler und leistungsfaehiger