https://stats.stackexchange.com/questions/444923/activation-function-between-lstm-layers
RNN을 공부하면서 Activation Function으로 sigmoid보다 tanh를 사용하는 이유는 이해가 되었다.
sigmoid에 비해 tanh 는 기울기가 0에서 1 사이이므로 Gradient Vanishing problem에 더 강하기 때문인데 그러면 'ReLU는 왜 안쓰지?' 라는 생각이 들었다.
결론
RNN은 CNN과 달리 이전 step의 값을 가져와서 사용하므로 ReLU를 쓰게되면 이전 값이 커짐에 따라 전체적인 출력이 발산하는 문제가 생길 수 있다. 따라서 과거의 값들을 재귀적으로 사용하는 RNN 모델에서는 이를 normalizing 하는 것이 필요하며 이를 위해 sigmoid보다 기울기의 역전파가 더 잘되는 tanh를 사용함으로써 좋은 결과를 볼 수 있다고 한다.
https://limitsinx.tistory.com/62
'Machine Learning > Theory' 카테고리의 다른 글
[개념 정리] Batch Normalization in Deep Learning - part 2. (0) | 2021.05.13 |
---|---|
[개념 정리] Batch Normalization in Deep Learning - part 1. (2) | 2021.05.11 |