Object detection with task-specific self-supervised learning
저자
발행사항
서울 : 성균관대학교 일반대학원, 2021
학위논문사항
학위논문(석사)-- 성균관대학교 일반대학원 : 소프트웨어학과 2021. 2
발행연도
2021
작성언어
한국어
주제어
발행국(도시)
서울
형태사항
iv, 43 p. : 삽화, 표 ; 30 cm
일반주기명
지도교수: 이지형
참고문헌 : p. 35-37
UCI식별코드
I804:11040-000000161438
DOI식별코드
소장기관
최근 딥러닝 분야에서는 라벨이 없는 대량의 데이터를 활용할 수 있는 Self-Supervised Learning 기법의 연구가 활발하게 진행되고 있다. Self-supervised learning의 연구는 NLP 분야에서부터 효과적인 기법임을 검증하였고, 이후 이미지 분야에서도 집중적으로 연구가 진행되고 있다. 이미지 분야에서의 selfsupervised learning으로는 많은 Pretext Task 들이 제안되었지만, 가장 많이 쓰이는 기법은 contrastive learning이다. Contrastive learning의 성능이 이전 pretext task들을 활용한 학습 방법보다 압도적으로 좋은 성능을 보이기 때문에, 최근 self-supervised learning 연구에서는 pretext task의 연구보다는 contrastive learning에서 발전하는 방향으로 집중하고 있다. Contrastive learning의 핵심 요소 중 하나는 Augmentation이라고 볼 수 있는데, contrastive learning을 사용하면 학습 모델은 augmentation에 사용된 특정 변환에 대한 invariance를 학습할 수 있다. 이런 Invariance는 학습 모델의 generalization에 전반적으로 좋은 영향을 주지만, 특정 상황/task에 따라 해당 변환을 인식할 수 있는 모델이 필요한 경우도 있다. 하지만 일반적인 contrastive learning기법으로는 invariance만 학습하며, 이와 trade-off 관계에 있는 sensitivity를 보유하기 힘들다. 본 논문에서는 이와 같은 문제를 해결하기 위해 sensitivity를 높여줄 수 있는 기법을 제안한다. 본 논문은 contrastive learning에 auxiliary task로 augmentation에 사용한 매개변수를 예측하는 task를 주어 학습을 진행하는 기법을 제안한다. 제안기법은 augmentation 매개변수를 예측하는 task를 줌으로써 특정 변환에 대한 sensitivity를 학습할 수 있으며, 특히 augmentation 중 random crop에 대한 예측 task를 주었을 때, object detection과 같은 downstream task에서 더 높은 성능을 보임을 확인할 수 있었다.
더보기Self-Supervised Learning is an area of research that has been actively researched in the recent years due to its ability to utilize unlabeled data. After its success in NLP-related areas, self-supervised learning has been a topic of interest for many deep learning researchers in the computer vision field. Since the rise of interest in self-supervised learning with images, there has been many pretext tasks proposed for pre-training using self-supervised learning, some of which were quite effective. However, the most widely used self-supervised learning method is contrastive learning. Contrastive learning has shown to outperform previous pretext tasks by far, so it has been the center of attention in the self-supervised learning field. One of the crucial elements in contrastive learning is the augmentations. Through augmentation and the contrastive loss, the model learns to be invariant to the augmentation transformations. This invariance property affects the model’s ability generalize in a positive way but is not always desired. For some situations and tasks, it may be more desirable to have a model which has more discriminative power (or sensitivity) with respect to a type of transform. Since s두냐샤퍄쇼 and invariance have a trade-off relationship, it is difficult for contrastive learning methods to have such sensitivity to certain transforms. To solve this issue, this paper proposes a method to adjust the amount of sensitivity or invariance a model learns. This paper proposes Augmentation Parameter Prediction, an auxiliary task added to the contrastive learning framework. This method allows for learning methods to become more sensitive to certain transforms. With experiments this paper shows that applying augmentation parameter prediction to augmentations such as random crop can improve the downstream performance of tasks such as object detection.
더보기분석정보
서지정보 내보내기(Export)
닫기소장기관 정보
닫기권호소장정보
닫기오류접수
닫기오류 접수 확인
닫기음성서비스 신청
닫기음성서비스 신청 확인
닫기이용약관
닫기학술연구정보서비스 이용약관 (2017년 1월 1일 ~ 현재 적용)
학술연구정보서비스(이하 RISS)는 정보주체의 자유와 권리 보호를 위해 「개인정보 보호법」 및 관계 법령이 정한 바를 준수하여, 적법하게 개인정보를 처리하고 안전하게 관리하고 있습니다. 이에 「개인정보 보호법」 제30조에 따라 정보주체에게 개인정보 처리에 관한 절차 및 기준을 안내하고, 이와 관련한 고충을 신속하고 원활하게 처리할 수 있도록 하기 위하여 다음과 같이 개인정보 처리방침을 수립·공개합니다.
주요 개인정보 처리 표시(라벨링)
목 차
3년
또는 회원탈퇴시까지5년
(「전자상거래 등에서의 소비자보호에 관한3년
(「전자상거래 등에서의 소비자보호에 관한2년
이상(개인정보보호위원회 : 개인정보의 안전성 확보조치 기준)개인정보파일의 명칭 | 운영근거 / 처리목적 | 개인정보파일에 기록되는 개인정보의 항목 | 보유기간 | |
---|---|---|---|---|
학술연구정보서비스 이용자 가입정보 파일 | 한국교육학술정보원법 | 필수 | ID, 비밀번호, 성명, 생년월일, 신분(직업구분), 이메일, 소속분야, 웹진메일 수신동의 여부 | 3년 또는 탈퇴시 |
선택 | 소속기관명, 소속도서관명, 학과/부서명, 학번/직원번호, 휴대전화, 주소 |
구분 | 담당자 | 연락처 |
---|---|---|
KERIS 개인정보 보호책임자 | 정보보호본부 김태우 | - 이메일 : lsy@keris.or.kr - 전화번호 : 053-714-0439 - 팩스번호 : 053-714-0195 |
KERIS 개인정보 보호담당자 | 개인정보보호부 이상엽 | |
RISS 개인정보 보호책임자 | 대학학술본부 장금연 | - 이메일 : giltizen@keris.or.kr - 전화번호 : 053-714-0149 - 팩스번호 : 053-714-0194 |
RISS 개인정보 보호담당자 | 학술진흥부 길원진 |
자동로그아웃 안내
닫기인증오류 안내
닫기귀하께서는 휴면계정 전환 후 1년동안 회원정보 수집 및 이용에 대한
재동의를 하지 않으신 관계로 개인정보가 삭제되었습니다.
(참조 : RISS 이용약관 및 개인정보처리방침)
신규회원으로 가입하여 이용 부탁 드리며, 추가 문의는 고객센터로 연락 바랍니다.
- 기존 아이디 재사용 불가
휴면계정 안내
RISS는 [표준개인정보 보호지침]에 따라 2년을 주기로 개인정보 수집·이용에 관하여 (재)동의를 받고 있으며, (재)동의를 하지 않을 경우, 휴면계정으로 전환됩니다.
(※ 휴면계정은 원문이용 및 복사/대출 서비스를 이용할 수 없습니다.)
휴면계정으로 전환된 후 1년간 회원정보 수집·이용에 대한 재동의를 하지 않을 경우, RISS에서 자동탈퇴 및 개인정보가 삭제처리 됩니다.
고객센터 1599-3122
ARS번호+1번(회원가입 및 정보수정)