Gihak111 Navbar

다양한 딥러닝에서 사용되는 활성화 함수(Activation Functions)와 그 외 의 다양한 함수들을 알아보고 그 특징을 아래에 정리하겟다.
활성화 함수는 뉴런의 출력을 결정하며, 모델의 학습 성능과 표현력을 크게 좌우한다.
전에 한번, 활성화 함수에 대해 정리했던 적이 있다.
이 글도 참고하자.

1. 전통적 활성화 함수

(1) Sigmoid

(2) Tanh (Hyperbolic Tangent

2. Rectified Linear Unit (ReLU) 및 변형

(1) ReLU

(2) Leaky ReLU

(3) Parametric ReLU (PReLU)

(4) Exponential Linear Unit (ELU)

(5) GELU (Gaussian Error Linear Unit)

3. Softmax

4. Swish 및 최신 함수

(1) Swish

(2) Mish

5. Custom 및 상황별 함수

(1) Maxout

(2) Hard Sigmoid / Hard Tanh

(3) Sinusoidal Activation

6. 비선형적 변환 함수

(1) Softplus

(2) Thresholded ReLU

7. 활성화 함수 비교

| 함수 | 출력 범위 | 주요 특징 | 단점 | 활용 분야 | |————|—————|———————————|—————————–|————————–| | Sigmoid | (0, 1) | 확률 계산 | Vanishing Gradient 문제 | 이진 분류 | | Tanh | (-1, 1) | 중심이 0 | Vanishing Gradient 문제 | 순환 신경망(RNN) | | ReLU | [0, ∞) | 단순, 계산 효율성 | Dead Neuron 문제 | CNN, 딥러닝 전반 | | Leaky ReLU | (-∞, ∞) | 음수 기울기 유지 | 최적 (\alpha) 찾기 필요 | CNN, 회귀 | | ELU | (-α, ∞) | 음수 활성화 부드러움 | 계산 복잡성 증가 | CNN, 고급 모델 | | Swish | (-∞, ∞) | 부드러운 곡선 | 계산 비용 | EfficientNet 등 | | Softmax | (0, 1) | 출력의 합이 1 | 클래스 간 상호의존성 | 다중 클래스 분류 |

위 함수들은 딥러닝 모델의 목적과 데이터 특성에 따라 적절히 선택해서 사용해야 합니다.
특히, 최신 모델에서는 Swish, GELU와 같은 부드럽고 강력한 함수들이 점점 더 자주 쓰이고 있다.

지난번에 올린 활성화 함수들도 있다. 이 글도 참고하자.