Fast Adaptation of Deep Learning Vision Applications with Limited Data for Edge Device = 엣지 장비를 위한 한정된 데이터를 가지는 딥러닝 비전 어플리케이션의 빠른 적응
저자
발행사항
서울 : 서울대학교 대학원, 2022
학위논문사항
학위논문(박사)-- 서울대학교 대학원 : 컴퓨터공학부 2022. 2
발행연도
2022
작성언어
영어
주제어
DDC
621.39
발행국(도시)
서울
형태사항
xiv, 143 ; 26 cm
일반주기명
지도교수: 유승주
UCI식별코드
I804:11032-000000170025
DOI식별코드
소장기관
The remarkable success of deep learning-based methods are mainly accomplished by a large amount of labeled data. Compared to conventional machine learning methods, deep learning-based methods are able to learn high quality model with a large dataset size. However, high-quality labeled data is expensive to obtain and sometimes preparing a large dataset is impossible due to privacy concern. Furthermore, human shows outstanding generalization performance without a huge amount of labeled data.
Edge devices have a limited capability in computation compared to servers. Especially, it is challenging to implement training on edge devices. However, training on edge device is desirable when considering domain-shift problem and privacy concern. In this dissertation, I consider adaptation process as a conventional training counterpart for low computation capability edge device.
Conventional classification assumes that training data and test data are drawn from the same distribution and training dataset is large. Unsupervised domain adaptation addresses the problem when training data and test data are drawn from different distribution and it is a problem to label target domain data using already existing labeled data and models. Few-shot learning assumes small training dataset and it is a task to predict new data based on only a few labeled data. I present 1) co-optimization of backbone network and parameter selection in unsupervised domain adaptation for edge device and 2) augmenting few-shot learning with supervised contrastive learning. Both methods are targeting low labeled data regime but different scenarios.
The first method is to boost unsupervised domain adaptation by co-optimization of backbone network and parameter selection for edge device. Pre-trained ImageNet models are crucial when dealing with small dataset such as Office datasets. By using unsupervised domain adaptation algorithm that does not update feature extractor, large and powerful pre-trained ImageNet models can be used to boost the accuracy. We report state-of-the-art accuracy result with the method. Moreover, we conduct an experiment to use small and lightweight pre-trained ImageNet models for edge device. Co-optimization is performed to reduce the total latency by using predictor-guided evolutionary search. We also consider pre-extraction of source feature. We conduct more realistic scenario for edge device such as smaller target domain data and object detection. Lastly, We conduct an experiment to utilize intermediate domain data to reduce the algorithm latency further.
We achieve 5.99x and 9.06x latency reduction on Office31 and Office-Home dataset, respectively.
The second method is to augment few-shot learning with supervised contrastive learning. We cannot use pre-trained ImageNet model in the few-shot learning benchmark scenario as they provide base dataset to train the feature extractor from scratch. Instead, we augment the feature extractor with supervised contrastive learning method. Combining supervised contrastive learning with information maximization and prototype estimation technique, we report state-of-the-art accuracy result with the method. Then, we translate the accuracy gain to total runtime reduction by changing the feature extractor and early stopping. We achieve 3.87x latency reduction for transductive 5-way 5-shot learning scenarios.
Our approach can be summarized as boosting the accuracy followed by latency reduction. We first upgrade the feature extractor by using more advanced pre-trained ImageNet model or by supervised contrastive learning to achieve state-of-the-art accuracy. Then, we optimize the method end-to-end with evolutionary search or early stopping to reduce the latency. Our two stage approach which consists of accuracy boosting and latency reduction is sufficient to achieve fast adaptation of deep learning vision applications with limited data for edge device.
딥 러닝 기반 방법의 놀라운 성공은 주로 많은 양의 분류된 데이터로 달성되었다. 전통적인 기계 학습 방법과 비교해서 딥러닝 방법은 아주 큰 데이터셋으로부터 좋은 성능을 가진 모델을 학습할 수 있다. 하지만 고품질의 분류된 데이터는 만들기 어렵고 프라이버시 문제로 만들 수 없을 때도 있다. 게다가 사람은 아주 큰 분류된 데이터가 없어도 훌륭한 일반화 능력을 보여준다.
엣지 장비는 서버와 비교해서 제한적인 계산 능력을 가진다. 특히 학습 과정을 엣지 장비에서 수행하는 것은 매우 어렵다. 하지만, 도메인 변화 문제와 프라이버시 문제를 고려했을 때 엣지 장비에서 학습 과정을 수행하는 것은 바람직하다. 본 논문에서는 계산능력이 작은 엣지 장비를 위해 적응 과정을 전통적인 학습 과정 대신 고려한다.
전통적인 분류 문제는 학습 데이터와 테스트 데이터가 동일한 분포에서 파생되었음과 많은 양의 학습 데이터를 가정한다. 비지도 도메인 어댑테이션은 테스트 데이터가 학습데이터와 다른 분포에서 파생되는 상황을 가정하며 기존의 분류된 데이터와 학습된 모델을 이용해 새로운 데이터를 분류하는 문제이다. 퓨샷 학습은 적은 양의 학습 데이터를 가정하며 소수의 분류된 데이터만을 가지고 새로운 데이터를 분류하는 문제이다. 엣지 장비를 위해 이미지넷에서 미리 학습된 모델을 통해 비지도 도메인 어댑테이션 성능을 강화하는 방법과 지도 컨트라스티브 학습을 통해 퓨샷 학습 성능을 강화하는 방법을 제안하였다. 두 방법은 모두 적은 분류된 데이터 문제를 다루며 다만 서로 다른 시나리오를 가정한다.
첫 번째 방법은 엣지 장비를 위해 네트워크 모델과 파라미터 선택의 동시 최적화를 통해 비지도 도메인 어댑테이션 성능을 강화하는 방법이다. 이미지넷에서 미리 학습된 모델은 Office 데이터셋과 같이 작은 데이터셋을 다룰때 매우 중요하다. 특징 추출기를 갱신하지 않는 비지도 도메인 어댑테이션 알고리즘을 사용하고 아주 큰 이미지넷에서 미리 학습된 모델을 조합하는 방법으로 높은 정확도를 얻을 수 있다. 더 나아가 엣지 장비를 위해 작고 가벼운 이미지넷에서 미리 학습된 모델을 실험하였다. 지연시간을 줄이기 위해 예측기를 도입한 진화 알고리즘으로 방법의 시작부터 끝까지 최적화하였다. 그리고 프라이버시를 지키기 위한 비지도 도메인 어댑테이션 시나리오에 대해 고려하였다. 또한 엣지 장비에서 좀 더 현실적인 시나리오인 작은 데이터셋과 object detection 에 대해서도 실험하였다. 마지막으로 연속적인 데이터가 입력될 때 중간 데이터를 활용하여 지연시간을 더 감소시키는 방법을 실험하였다. Office31과 Office-Home 데이터셋에 대해 각각 5.99배와 9.06배 지연시간 감소를 달성하였다.
두 번째 방법은 지도 컨트라스티브 학습을 통해 퓨샷 학습 성능을 강화하는 방법이다. 퓨샷 학습 벤치마크에서는 베이스 데이터셋으로 특징 추출기를 학습하기 때문에 이미지넷에서 미리 학습된 모델을 사용할 수 없다. 대신에, 지도 컨트라스티브 학습을 통해 특징 추출기를 강화한다. 지도 컨트라스티브 학습과 정보 최대화 그리고 프로토타입 추정 방법을 조합하여 아주 높은 정확도를 얻을 수 있다. 특징 추출기와 미리 끝내기를 통해 이렇게 얻은 정확도를 수행시간 감소로 바꿀 수 있다.
트랜스덕티브 5-웨이 5-샷 학습 시나리오에서 3.87배 지연시간 감소를 달성하였다.
본 방법은 정확도를 증가시킨 후 지연시간을 감소시키는 방법으로 요약할 수 있다. 먼저 이미지넷에서 미리 학습된 모델을 쓰거나 지도 컨트라스티브 학습을 통해 특징 추출기를 강화해서 높은 정확도를 얻는다. 그 후 진화 알고리즘을 통해 시작부터 끝까지 최적화하거나 미리 끝내기를 통해 지연시간을 줄인다. 정확도를 증가시킨 후 지연시간을 감소시키는 두 단계 접근 방식은 엣지 장비를 위한 한정된 데이터를 가지는 딥러닝 비전 어플리케이션의 빠른 적응을 달성하는데 충분하다.
분석정보
서지정보 내보내기(Export)
닫기소장기관 정보
닫기권호소장정보
닫기오류접수
닫기오류 접수 확인
닫기음성서비스 신청
닫기음성서비스 신청 확인
닫기이용약관
닫기학술연구정보서비스 이용약관 (2017년 1월 1일 ~ 현재 적용)
학술연구정보서비스(이하 RISS)는 정보주체의 자유와 권리 보호를 위해 「개인정보 보호법」 및 관계 법령이 정한 바를 준수하여, 적법하게 개인정보를 처리하고 안전하게 관리하고 있습니다. 이에 「개인정보 보호법」 제30조에 따라 정보주체에게 개인정보 처리에 관한 절차 및 기준을 안내하고, 이와 관련한 고충을 신속하고 원활하게 처리할 수 있도록 하기 위하여 다음과 같이 개인정보 처리방침을 수립·공개합니다.
주요 개인정보 처리 표시(라벨링)
목 차
3년
또는 회원탈퇴시까지5년
(「전자상거래 등에서의 소비자보호에 관한3년
(「전자상거래 등에서의 소비자보호에 관한2년
이상(개인정보보호위원회 : 개인정보의 안전성 확보조치 기준)개인정보파일의 명칭 | 운영근거 / 처리목적 | 개인정보파일에 기록되는 개인정보의 항목 | 보유기간 | |
---|---|---|---|---|
학술연구정보서비스 이용자 가입정보 파일 | 한국교육학술정보원법 | 필수 | ID, 비밀번호, 성명, 생년월일, 신분(직업구분), 이메일, 소속분야, 웹진메일 수신동의 여부 | 3년 또는 탈퇴시 |
선택 | 소속기관명, 소속도서관명, 학과/부서명, 학번/직원번호, 휴대전화, 주소 |
구분 | 담당자 | 연락처 |
---|---|---|
KERIS 개인정보 보호책임자 | 정보보호본부 김태우 | - 이메일 : lsy@keris.or.kr - 전화번호 : 053-714-0439 - 팩스번호 : 053-714-0195 |
KERIS 개인정보 보호담당자 | 개인정보보호부 이상엽 | |
RISS 개인정보 보호책임자 | 대학학술본부 장금연 | - 이메일 : giltizen@keris.or.kr - 전화번호 : 053-714-0149 - 팩스번호 : 053-714-0194 |
RISS 개인정보 보호담당자 | 학술진흥부 길원진 |
자동로그아웃 안내
닫기인증오류 안내
닫기귀하께서는 휴면계정 전환 후 1년동안 회원정보 수집 및 이용에 대한
재동의를 하지 않으신 관계로 개인정보가 삭제되었습니다.
(참조 : RISS 이용약관 및 개인정보처리방침)
신규회원으로 가입하여 이용 부탁 드리며, 추가 문의는 고객센터로 연락 바랍니다.
- 기존 아이디 재사용 불가
휴면계정 안내
RISS는 [표준개인정보 보호지침]에 따라 2년을 주기로 개인정보 수집·이용에 관하여 (재)동의를 받고 있으며, (재)동의를 하지 않을 경우, 휴면계정으로 전환됩니다.
(※ 휴면계정은 원문이용 및 복사/대출 서비스를 이용할 수 없습니다.)
휴면계정으로 전환된 후 1년간 회원정보 수집·이용에 대한 재동의를 하지 않을 경우, RISS에서 자동탈퇴 및 개인정보가 삭제처리 됩니다.
고객센터 1599-3122
ARS번호+1번(회원가입 및 정보수정)