본문 바로가기
AI#AI조회 57

Activation Function란?

정의

신경망 뉴런의 비선형 변환. ReLU·GELU·Sigmoid·Tanh.

Activation Function이란?

선형 결합 결과에 비선형성을 도입해 표현력을 확보한다.

종류

  • ReLU — max(0, x), 가장 보편
  • GELU — 스무스한 ReLU, Transformer 표준
  • Sigmoid·Tanh — RNN·출력층
  • Swish/SiLU — Mobile·EfficientNet

🔗 함께 보면 좋은 용어

AI 전체 →