Visualisation interactive du perceptron, des fonctions d'activation et des fondamentaux des reseaux de neurones
Ajustez les poids et le biais pour voir comment le perceptron calcule sa sortie
Sans fonctions d'activation, les reseaux de neurones restent lineaires quelle que soit la profondeur
Composition Lineaire de Lineaire = Lineaire
Comparez differentes fonctions d'activation et leurs derivees
Voyez comment les gradients se propagent a travers differentes fonctions d'activation
Si f'(z) ~ 0, le gradient disparait!
| Fonction | Gradient |z| Grand | Gradient z=0 |
|---|---|---|
| Sigmoid | ≈0 (vanishing) | 0.25 |
| Tanh | ≈0 (vanishing) | 1.0 |
| ReLU | 1 (for z>0) | 0 or 1 |
| Swish | Smooth non-zero | 0.5 |
| GELU | Smooth non-zero | 0.5 |
Comparez les reseaux purement lineaires vs les reseaux avec activations non lineaires
Un reseau feedforward avec au moins une couche cachee peut approximer toute fonction continue sur des sous-ensembles compacts de R^n
| Tache | Activation |
|---|---|
| Classification Binaire | Sigmoid |
| Classification Multi-classe | Softmax |
| Regression | Lineaire (aucune) |
Apprendre "quoi regarder"
Apprendre "seuil"
Apprendre "comment repondre"
Neurone = Transformateur de caracteristiques apprenable avec porte non lineaire
Le perceptron est la structure atomique des reseaux de neurones
Les fonctions d'activation determinent si les reseaux peuvent apprendre des motifs complexes
ReLU a rendu le deep learning vraiment entrainable
GELU/Swish rendent les grands modeles plus stables et puissants