Activation Function이란?선형 결합 결과에 비선형성을 도입해 표현력을 확보한다.종류ReLU — max(0, x), 가장 보편GELU — 스무스한 ReLU, Transformer 표준Sigmoid·Tanh — RNN·출력층Swish/SiLU — Mobile·EfficientNet