Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- Machine Learning Advanced
- TEAM EDA
- DFS
- pytorch
- TEAM-EDA
- 3줄 논문
- 추천시스템
- Recsys-KR
- Segmentation
- 엘리스
- 프로그래머스
- hackerrank
- Semantic Segmentation
- 한빛미디어
- Object Detection
- 협업필터링
- DilatedNet
- 스택
- 코딩테스트
- Image Segmentation
- 나는리뷰어다
- Python
- MySQL
- 알고리즘
- 튜토리얼
- eda
- 입문
- 큐
- 나는 리뷰어다
- 파이썬
Archives
- Today
- Total
TEAM EDA
[파이토치로 시작하는 딥러닝 기초] 3.2 Advance CNN(VGG) 본문
이번 글에서는 PyTorch로 VGG를 구현하는 것에 대해서 배워보도록 하겠습니다. 이번 글은 EDWITH에서 진행하는 파이토치로 시작하는 딥러닝 기초를 토대로 하였고 같이 스터디하는 팀원분들의 자료를 바탕으로 작성하였습니다.
목차
- VGG NET
- VGG 구현
1. VGG NET
VGG는 옥스포드 대학의 연구팀 VGG에 의해 개발된 모델로써, 2014년 이미지넷 인식 대회에서 준우승을 한 모델입니다. 층의 갯수에 따라 11부터 19까지 갯수가 다양하고 사용하기 쉬운 구조와 성능때문에 많은 인기를 얻은 모델입니다.
VGG의 특징은 3x3의 작은 필터를 사용했다는 점입니다. 3x3 Convolution을 두 번 쌓는 것은 5x5 convolution과 동일하고 3x3 Convolution을 세 번 쌓는 것은 7x7 convolution과 동일합니다. 하지만 차이점은 3x3의 경우는 층이 3개이기에 더 많은 비선형성을 가질 수 있고 파라미터의 수 또한 적은 장점이 있습니다.
2. VGG NET구현
__all__ = [
'VGG', 'vgg11', 'vgg11_bn', 'vgg13', 'vgg13_bn', 'vgg16', 'vgg16_bn',
'vgg19_bn', 'vgg19',
]
model_urls = {
'vgg11': 'https://download.pytorch.org/models/vgg11-bbd30ac9.pth',
'vgg13': 'https://download.pytorch.org/models/vgg13-c768596a.pth',
'vgg16': 'https://download.pytorch.org/models/vgg16-397923af.pth',
'vgg19': 'https://download.pytorch.org/models/vgg19-dcbb9e9d.pth',
'vgg11_bn': 'https://download.pytorch.org/models/vgg11_bn-6002323d.pth',
'vgg13_bn': 'https://download.pytorch.org/models/vgg13_bn-abd245e5.pth',
'vgg16_bn': 'https://download.pytorch.org/models/vgg16_bn-6c64b313.pth',
'vgg19_bn': 'https://download.pytorch.org/models/vgg19_bn-c79401a0.pth',
}
class VGG(nn.Module):
def __init__(self, features, num_classes=1000, init_weights=True):
super(VGG, self).__init__()
self.features = features #convolution
self.avgpool = nn.AdaptiveAvgPool2d((7, 7))
self.classifier = nn.Sequential(
nn.Linear(512 * 7 * 7, 4096),
nn.ReLU(True),
nn.Dropout(),
nn.Linear(4096, 4096),
nn.ReLU(True),
nn.Dropout(),
nn.Linear(4096, num_classes),
)#FC layer
if init_weights:
self._initialize_weights()
def forward(self, x):
x = self.features(x) #Convolution
x = self.avgpool(x) # avgpool
x = x.view(x.size(0), -1) #
x = self.classifier(x) #FC layer
return x
def _initialize_weights(self):
for m in self.modules():
if isinstance(m, nn.Conv2d):
nn.init.kaiming_normal_(m.weight, mode='fan_out', nonlinearity='relu')
if m.bias is not None:
nn.init.constant_(m.bias, 0)
elif isinstance(m, nn.BatchNorm2d):
nn.init.constant_(m.weight, 1)
nn.init.constant_(m.bias, 0)
elif isinstance(m, nn.Linear):
nn.init.normal_(m.weight, 0, 0.01)
nn.init.constant_(m.bias, 0)
# 'A': [64, 'M', 128, 'M', 256, 256, 'M', 512, 512, 'M', 512, 512, 'M']
def make_layers(cfg, batch_norm=False):
layers = []
in_channels = 3
for v in cfg:
if v == 'M':
layers += [nn.MaxPool2d(kernel_size=2, stride=2)]
else:
conv2d = nn.Conv2d(in_channels, v, kernel_size=3, padding=1)
if batch_norm:
layers += [conv2d, nn.BatchNorm2d(v), nn.ReLU(inplace=True)]
else:
layers += [conv2d, nn.ReLU(inplace=True)]
in_channels = v
return nn.Sequential(*layers)
cfg = {
'A': [64, 'M', 128, 'M', 256, 256, 'M', 512, 512, 'M', 512, 512, 'M'], #8 + 3 =11 == vgg11
'B': [64, 64, 'M', 128, 128, 'M', 256, 256, 'M', 512, 512, 'M', 512, 512, 'M'], # 10 + 3 = vgg 13
'D': [64, 64, 'M', 128, 128, 'M', 256, 256, 256, 'M', 512, 512, 512, 'M', 512, 512, 512, 'M'], #13 + 3 = vgg 16
'E': [64, 64, 'M', 128, 128, 'M', 256, 256, 256, 256, 'M', 512, 512, 512, 512, 'M', 512, 512, 512, 512, 'M'], # 16 +3 =vgg 19
'custom' : [64,64,64,'M',128,128,128,'M',256,256,256,'M']
}
CNN = VGG(make_layers(cfg['custom']), num_classes=10, init_weights=True)
CNN
'EDA Study > PyTorch' 카테고리의 다른 글
[파이토치로 시작하는 딥러닝 기초] 4.2 RNN Advanced (2) | 2020.03.28 |
---|---|
[파이토치로 시작하는 딥러닝 기초] 4.1 RNN Basics (0) | 2020.03.26 |
[파이토치로 시작하는 딥러닝 기초] 3.1 Convolution Neural Network (0) | 2020.03.21 |
[파이토치로 시작하는 딥러닝 기초] 2.6 Batch Normalization (0) | 2020.03.20 |
[파이토치로 시작하는 딥러닝 기초] 2.5 Dropout (0) | 2020.03.20 |