Optimization of Mixed-precision Neural Architecture with Knowledge Distillation
저자
발행사항
서울 : 서울대학교 대학원, 2020
학위논문사항
학위논문(석사)-- 서울대학교 대학원 : 전기·정보공학부 2020. 8
발행연도
2020
작성언어
영어
주제어
DDC
621.3 판사항(22)
발행국(도시)
서울
형태사항
vi, 39장 : 삽화, 표 ; 26 cm
일반주기명
참고문헌 수록
UCI식별코드
I804:11032-000000161753
소장기관
Quantization은 메모리와 계산 능력이 제한된 edge device에서 deep neural network를 수행하기 위해 필수적인 프로세스이다. 그러나 bit-width 및 transformation function을 포함하여 똑같은 quantization 을 모든 레이어에 그대로 적용하는 uniform-precision quantization은 심각한 성능 저하를 겪는 것으로 널리 알려져 있다. 한편 각각의 레이어에 서로 다른 quantization 을 찾아서 적용하는 것은 후보군의 수가 레이어 수에 따라 기하급수적으로 증가하기 때문에 적용하기 어렵다. 이 문제를 해결하기 위해, 본 연구에서는 Knowledge Distillation 기법을 활용하여 선형시간 내에 검색 공간을 효율적으로 탐색하는 방법을 제안한다. 특히, 제안된 방법은 대상 레이어에 대한 quantization 의 영향을 추정하기 위해 레이어별로 loss function을 공식화하였다. 레이어간에 의존성이 최소라는 가정에 근거하여 각 레이어별 적용을 개별적으로 결정해서 성능의 손실을 최소화한다. 하드웨어 친화적인 quantization 만 사용하여 image classification과 object detection 에 대한 실험을 실시하였다. 그 결과, CIFAR-10 데이터 세트에서 크기가 13.65배 작은 가장 효율적인 mixed-precision의 ResNet20 모델로 93.62%의 정확도를 달성하였으며, 이는 기본 full-precision 모델보다 0.19% 낮은 수준이다. VOC 데이터 세트에서, 제안된 방법은 평균 precision 이 63.87% 인 mixed-precision Sim-YOLOv2-FPGA 모델을 생성하였고, 동일 압축률의 모든 uniform-precision 모델보다 성능이 뛰어나다. 제안하는 방법은 다른 최첨단 mixed-precision quantization 접근법과 유사한 효율을 달성하면서도 실행은 단순하다.
더보기Quantization is an essential process in the deployment of deep neural networks on edge devices which only have limited memory and computation capacity. However, it is widely known that the straightforward uniform-precision quantization method, which applies the same quantization scheme including bit-width and transformation function to all layers, suffers a severe performance degradation. Meanwhile, finding and assigning different quantization schemes to different layers is challenging as the number of candidates is exponential to the the number of layers. To address this problem, this study proposes a method that utilizes Knowledge Distillation technique to efficiently explore the search space in linear time. In particular, the proposed method formulates a per-layer loss function to estimate the impact of a quantization scheme on a target layer. Based on the assumption that the dependence among layers is minimal, the assignment is then decided for each layer separately to minimize the performance loss. Experiments are conducted for both image classification and object detection task, using only hardware-friendly quantization schemes. The results show that the most efficient mixed-precision ResNet20 model with 13.65 times smaller size can still achieve up to 93.62% accuracy on CIFAR-10 dataset, which is only 0.19% lower than the baseline full-precision model. On VOC dataset, the proposed method generates a mixed-precision Sim-YOLOv2-FPGA model with a mean average precision of 63.87, which outperforms all uniform-precision models with the same compression rate. The proposed method is practically simple to carry out while still achieving a comparable efficiency to other state-of-the-art approaches on mixed-precision quantization.
더보기분석정보
서지정보 내보내기(Export)
닫기소장기관 정보
닫기권호소장정보
닫기오류접수
닫기오류 접수 확인
닫기음성서비스 신청
닫기음성서비스 신청 확인
닫기이용약관
닫기학술연구정보서비스 이용약관 (2017년 1월 1일 ~ 현재 적용)
학술연구정보서비스(이하 RISS)는 정보주체의 자유와 권리 보호를 위해 「개인정보 보호법」 및 관계 법령이 정한 바를 준수하여, 적법하게 개인정보를 처리하고 안전하게 관리하고 있습니다. 이에 「개인정보 보호법」 제30조에 따라 정보주체에게 개인정보 처리에 관한 절차 및 기준을 안내하고, 이와 관련한 고충을 신속하고 원활하게 처리할 수 있도록 하기 위하여 다음과 같이 개인정보 처리방침을 수립·공개합니다.
주요 개인정보 처리 표시(라벨링)
목 차
3년
또는 회원탈퇴시까지5년
(「전자상거래 등에서의 소비자보호에 관한3년
(「전자상거래 등에서의 소비자보호에 관한2년
이상(개인정보보호위원회 : 개인정보의 안전성 확보조치 기준)개인정보파일의 명칭 | 운영근거 / 처리목적 | 개인정보파일에 기록되는 개인정보의 항목 | 보유기간 | |
---|---|---|---|---|
학술연구정보서비스 이용자 가입정보 파일 | 한국교육학술정보원법 | 필수 | ID, 비밀번호, 성명, 생년월일, 신분(직업구분), 이메일, 소속분야, 웹진메일 수신동의 여부 | 3년 또는 탈퇴시 |
선택 | 소속기관명, 소속도서관명, 학과/부서명, 학번/직원번호, 휴대전화, 주소 |
구분 | 담당자 | 연락처 |
---|---|---|
KERIS 개인정보 보호책임자 | 정보보호본부 김태우 | - 이메일 : lsy@keris.or.kr - 전화번호 : 053-714-0439 - 팩스번호 : 053-714-0195 |
KERIS 개인정보 보호담당자 | 개인정보보호부 이상엽 | |
RISS 개인정보 보호책임자 | 대학학술본부 장금연 | - 이메일 : giltizen@keris.or.kr - 전화번호 : 053-714-0149 - 팩스번호 : 053-714-0194 |
RISS 개인정보 보호담당자 | 학술진흥부 길원진 |
자동로그아웃 안내
닫기인증오류 안내
닫기귀하께서는 휴면계정 전환 후 1년동안 회원정보 수집 및 이용에 대한
재동의를 하지 않으신 관계로 개인정보가 삭제되었습니다.
(참조 : RISS 이용약관 및 개인정보처리방침)
신규회원으로 가입하여 이용 부탁 드리며, 추가 문의는 고객센터로 연락 바랍니다.
- 기존 아이디 재사용 불가
휴면계정 안내
RISS는 [표준개인정보 보호지침]에 따라 2년을 주기로 개인정보 수집·이용에 관하여 (재)동의를 받고 있으며, (재)동의를 하지 않을 경우, 휴면계정으로 전환됩니다.
(※ 휴면계정은 원문이용 및 복사/대출 서비스를 이용할 수 없습니다.)
휴면계정으로 전환된 후 1년간 회원정보 수집·이용에 대한 재동의를 하지 않을 경우, RISS에서 자동탈퇴 및 개인정보가 삭제처리 됩니다.
고객센터 1599-3122
ARS번호+1번(회원가입 및 정보수정)