깊게 갈수록 항상 좋은 건 아니다: 내부 공변량 변화(Internal Covariate Shift)와 잔차 연결(Residual Connections) 완벽 해부
층을 많이 쌓을수록 성능이 좋아질 거라 모두가 생각했다. 틀렸다. 56층 신경망이 20층 신경망보다 학습 데이터에서도 훨씬 형편없는 성능을 보였다. 모든 것을 바꿔버린 해결책들을 파헤쳐 보자.
⚡ Key Takeaways
Worth sharing?
Get the best Developer Tools stories of the week in your inbox — no noise, no spam.
Originally reported by dev.to