Интерактивная визуализация персептрона, функций активации и основ нейронных сетей
Настройте веса и смещение, чтобы увидеть, как персептрон вычисляет выход
Без функций активации нейронные сети остаются линейными независимо от глубины
Линейная композиция линейного = линейное
Сравните различные функции активации и их производные
Посмотрите, как градиенты распространяются через различные функции активации
Если f'(z) ~ 0, градиент исчезает!
| Функция | Градиент при большом |z| | Градиент при z=0 |
|---|---|---|
| Sigmoid | ≈0 (vanishing) | 0.25 |
| Tanh | ≈0 (vanishing) | 1.0 |
| ReLU | 1 (for z>0) | 0 or 1 |
| Swish | Smooth non-zero | 0.5 |
| GELU | Smooth non-zero | 0.5 |
Сравните чисто линейные сети с сетями с нелинейными активациями
Сеть прямого распространения с минимум одним скрытым слоем может аппроксимировать любую непрерывную функцию на компактных подмножествах R^n
| Задача | Активация |
|---|---|
| Бинарная классификация | Sigmoid |
| Многоклассовая классификация | Softmax |
| Регрессия | Линейная (нет) |
Узнать "на что смотреть"
Узнать "порог"
Узнать "как реагировать"
Нейрон = Обучаемый преобразователь признаков с нелинейным стробированием
Персептрон - это атомная структура нейронных сетей
Функции активации определяют, могут ли сети изучать сложные паттерны
ReLU сделала глубокое обучение действительно обучаемым
GELU/Swish делают большие модели более стабильными и мощными