이전 ShuffleNet 논문 리뷰 : 2023.01.05 - [Paper Review] - [Paper Review] ShuffleNet: An Extremely Efficient Convolutional Neural Network for MobileDevices
[Paper Review] ShuffleNet: An Extremely Efficient Convolutional Neural Network for MobileDevices
이전 MobileNet 논문 리뷰 : 2023.01.04 - [Paper Review] - [Paper Review] MobileNet : Efficient Convolutional Neural Networks for Mobile VisionApplications [Paper Review] MobileNet : Efficient Convolutional Neural Networks for Mobile VisionApplications
josh3255.tistory.com
DenseNet 논문 : https://arxiv.org/pdf/1608.06993.pdf
일곱 번째로 리뷰할 논문은 DenseNet이다. DenseNet은 Shortcut Connection에서 영감을 받은 네트워크로 입력에 가까운 계층과 출력에 가까운 층을 연결하여 학습 중에 그래디언트가 소실되는 문제를 해결하고 매개 변수를 줄여 네트워크를 더 깊게 쌓을 수 있게 만들었다.
DenseNets

네트워크를 통과하는 단일 이미지
ResNet의 경우 아래 수식과 같이
이에 DenseNet은 계층 간의 정보 흐름을 더욱 개선하기 위해서 그림 1과 같이 모든 계층에서 이어지는 모든 계층으로의 직접 연결을 제안하였다. 수식으로는 다음과 같이 표현된다.
Pooling layers

DenseNet에서는 컨볼루션 네트워크의 필수적인 요소인 다운샘플링 계층을 Dense Block 사이에 적용하였다. 이를 전이 계층이라고 부르는데 전이 계층은 Batch Normalization layer, 1 x 1 convolution layer, 2 x 2 average pooling layer로 구성된다.
Growth rate
각 함수
논문의 저자들은 이
논문을 리뷰하면서 든 생각이 굉장히 길게 써놨지만 결국 레이어 간 연결을 통해 얕은 정보와 깊은 정보를 더 많이 보는 것, 그래디언트가 소실을 막는 것이 핵심이라고 생각한다.
다음글에서는 Batch Normalization에 대해서 리뷰하겠습니다.