Summary
한 달 동안 “Do it! 딥러닝 교과서”를 가지고 BDA 내부 스터디를 진행하며, 이번주는 6,7단원을 공부했다.

포스팅할 내용은 7단원으로, 순서는 다음과 같다.
- 7.1 ReNet-5
- 7.2 AlexNet
- 7.3 ZFNet
- 7.4 VGGNet
- 7.5 GoogLeNet
- 7.6 ResNet
- 7.7 콘볼루션 신경망 비교
- 7.8 다양한 모델의 등장
Content
연도별 모델 순서
——ILSVRC대회 시행—–
=> 1000개 클래스에 대한 이미지 분류 및 객체 인식 목적
- 2012 : AlexNet
- 2013 : ZFNet
- 2014 : GoogLeNet, VGGNet
- 2015 : ResNet
1998 : LeNet-5
- 의의 : 최초의 콘볼루션 신경망
- 목적 : 필기체 우편번호 인식
- 구조 : 7계층 (Conv 계층 - Pooling 계층 - Conv 계층 - Pooling 계층 - Fully Connected 계층 - Fully Connected 계층 - Fully Connected 계층)
- Conv 계층 & Pooling 계층 : 신체 신경망의 시각영역
- Fully Connected 계층 : 신체 신경망의 연관영역
- 전체 파라미터 수 : 60K

2012 : AlexNet
- 의의 : 2개의 GPU에서 실행되는 병렬처리 구조
- 병렬처리 구조 : Conv 필터를 두 그룹으로 나눈 뒤 그룹별로 처리 => 중간 계층에서 정보 교환 => 한쪽 그룹으로 최종 결과 합침
- 구조 : 8계층 (Conv 계층 - Conv 계층 - Conv 계층 - Conv 계층 - Conv 계층 - Fully Connected 계층 - Fully Connected 계층 - Fully Connected 계층)
- 첫번째 Conv 계층 : Convolution - MaxPooling - Normalization(LRN)
- LRN (= 지역응답정규화)
- 사용 이유 : ReLU의 출력 무한히 커지므로
- 의미 : 픽셀별로 이웃 채널의 픽셀 이용
- 마지막 Conv 계층 : Convolution - MaxPooling
- 모든 Conv 계층에는 MaxPooling 포함
- 전체 파라미터 수 : 62,378,344
문제 : FC층으로 인해 과도한 수의 파라미터 발생 => 이후 출력 계층을 제외한 신경망으로 개선

2013 : ZFNet
- 의의 : AlexNet의 문제점을 모델 시각화 방식으로 분석 & 개선
- 구조 : AlexNet과 동일
- 모델 시각화 결과 첫번재 계층이 잘 학습되지 않음 => 첫번째 Conv 계층의 Conv 필터 크기와 스트라이트를 조정함 (11 * 11 * 4 => 7 * 7 * 2)=> AlexNet의 죽은 특징과 특징 속의 잡음을 개선하여 선명하게 특징이 포착되도록 개선됨
- 3,4,5번째 Conv계층의 필터 개수 조정 (384,384,256 => 512, 1024, 412)
- AlexNet에서 Convolution 필터를 두 그룹으로 나눈 것을 여기서는 하나로 합침.
- 전체 파라미터 수 : 62,378,344

2014 : VGGNet
- 의의 : 3*3의 Conv 필터 사용 , 매우 단순한 구조
- 목적 : 파라미터의 수를 줄이고, 신경망을 깊게 쌓자!
- 구조
- 11계층
- 13계층
- 16계층 => VGG16
- Conv 계층 (2회) - Conv계층 (2회) - Conv계층 (3회) - Conv 계층 (3회) - Conv 계층 (3회) - FC층 (3회)
- 중간 중간에 MaxPooling/2 적용
- 19계층
- 전체 파라미터 수 : 138MB

2014 : GoogLeNet
- 의의 : 네트워크 속 네트워크 구조
- 구조 : 22계층
- 전체 파라미터 수 : 5M

2015 : ResNet
- 의의 : 네트워크 속 네트워크 구조
- 구조
- 18계층
- 34계층
- 50계층
- 101계층
- 152계층
- 전체 파라미터 수 : 5M

콘볼루션 신경망 비교
- 모델 정확도와 파라미터 수 비교

다양한 모델의 등장
- 와이드 레즈넷, 레즈넥스트, 깊이가 확률적으로 변하는 신경망, 프랙탈넷, 댄스넷, 나스넷, 인셉션v4, 인셉션-레즈넷v1
회고
전공자로써 전공 수업들을 통해서 배운 것은 많지만 완전히 흡수하지 못한 것들이 많다고 느꼈는데, 스터디를 하면서 전공 시간에 배운 내용들이 생각나 이 책의 내용을 이해하는 데 많은 도움이 되었고, 깊게 배우지 못한 내용들을 배우고,배웠던 내용들을 다시 보강할 수있어 좋았다.
그리고 책에 대한 부분을 말하자면, 책의 내용이 시간의 순서대로 신경망들을 나열되어 있어 좋았고, 각 신경망 설명을 자세히, 하나의 용어도 세심히 적혀있어 내용을 이해하는데 큰 도움이 되었다.
마지막으로, 공부하면서 알지 못했던 신경망들이 많아 앞으로 스터디가 끝나더라도 하나씩 공부하여 응용해봐야겠다. 요즘 스터디, 프로젝트를 하면서 부족함이 많음을 느낀다.. 갈 길이 멀다… 화이팅!!
댓글