Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- 입문
- TEAM-EDA
- Recsys-KR
- 협업필터링
- 코딩테스트
- 나는 리뷰어다
- Machine Learning Advanced
- 튜토리얼
- hackerrank
- 큐
- 나는리뷰어다
- 프로그래머스
- DilatedNet
- 엘리스
- 3줄 논문
- 한빛미디어
- Object Detection
- Image Segmentation
- pytorch
- DFS
- 스택
- Python
- 알고리즘
- TEAM EDA
- eda
- 추천시스템
- MySQL
- Semantic Segmentation
- Segmentation
- 파이썬
Archives
- Today
- Total
TEAM EDA
Dual Attention Network for Scene Segmentation (DANet) 본문
Resources
- Title : Dual Attention Network for Scene Segmentation (DANet)
- Paper : https://arxiv.org/abs/1809.02983
Motivation & Introduction
기존의 연구는 Global한 Context 정보를 잡기위해서 Kernel Size를 넓히거나 Global Average Pooling, Dilated Convolution 등을 이용했다. 하지만, 이는 object와 stuff 사이의 관계를 제대로 파악하지 못한다. 이를 위해, DANet은 2가지의 Self-Attention인 Position Attention과 Channel Attention을 통해서 위의 문제를 해결하려고 한다.
Methodology
Position Attention : long-range contextual information을 잡기위해서 (HXW)X(HXW)의 Self-Attention을 적용해서 모든 픽셀들 간의 관계를 파악한다. 이때, Adaptively하게 학습 가능한 scale factor alpha를 만들어서 각 position 별 가중치를 제공하는게 특징이다.
Channel Attetion : 기존의 Channel Attention과 비슷하게 각 채널에 담긴 클래스의 특징들을 (Specific Semantics) 향상시키기 위해 사용하는 방법이다. CxC로 self-attention을 적용해서 피쳐맵들간의 구별성을 높이는 특징이 있다. Position Attention과 마찬가지로 scale factor beta가 있어서 channel 별 가중치를 제공하는게 특징이다.