Quantization Algorithm and Methodology for Efficient Deep Neural Network
Deep neural networks (DNN) are becoming increasingly popular and widely adopted for various applications. Energy efficiency of neural networks is critically important for both edge devices and servers. It is imperative to optimize neural networks in terms of both speed and energy consumption while maintaining the accuracy of the network.
Quantization is one of the most effective optimization techniques. By reducing the bit-width of activations and weights, both the speed and energy can be improved by executing more computations using the same amount of memory access and computational resources (e.g. silicon chip area and battery). It is expected that computations with 4-bit and lower precision will contribute to the energy efficient and real-time characteristics of future deep learning applications.
One major drawback of quantization is the drop in accuracy, resulting from the reduction in the degree of freedom of data representation. Recently, there have been several studies that demonstrated that the inference of DNNs can be accurately done by using 8-bit precision. However, many studies show that the network quantized into 4-bit or less precision suffers from significant quality degradation. Especially, the state-of-the art networks cannot be quantized easily due to their optimized structure.
In this dissertation, several methods are proposed that use different approaches to minimize the reduction in the accuracy of the quantized DNNs. Weighted- entropy-based quantization is designed to fully utilize the limited number of quantization levels by maximizing the weighted information of the quantized data. This work shows the potential of multi-bit quantization for both activation and weight. Value-aware quantization, or outlier-aware quantization is designed to support sub-4-bit quantization, while allowing a small amount (1 ~ 3 %) of large values in high precision. This helps the quantized data to maintain the statistics, e.g. mean and variance corresponding to the full-precision, thus minimizing the accuracy drop after quantization. The dedicated hardware accelerator, called OLAccel, is also proposed to maximize the performance of the network quantized by the outlier-aware quantization. The hardware takes advantage of the benefit of reduced precision, i.e. 4-bit, with minimal accuracy drop by the proposed quantization algorithm. Precision-highway is the structural concept that forms an end-to-end high-precision information flow while performing ultra-low-precision computations. This minimizes the accumulated quantization error, which helps to improve the accuracy of the network even with extremely low precision. BLast, the training methodology, and differentiable and unified quantization (DuQ), a novel quantization algorithm, are designed to support sub-4-bit quantization for the optimized mobile networks, i.e. MobileNet-v3. These methods allow the MobileNet-v3 network to be quantized into 4-bit for both activation and weight with negligible accuracy loss.
딥 뉴럴 네트워크 (DNN)는 활용 범위를 점차 넓혀가며 다양한 분야에 적용되고 있다. 뉴럴 네트워크는 서버 뿐만 아니라 임베디드 기기에서도 널리 활용되고 있으며 이로인해 뉴럴 네트워크의 효율성을 높이는 것은 점점 더 중요해지는 중이다. 이제 정확도를 유지하면서 속도를 빠르게 하고 에너지 소모를 줄이는 뉴럴 네트워크의 최적화는 필수적 요소로 자리잡았다.
양자화는 가장 효과적인 최적화 기법 중 하나이다. 뉴런의 활성도 (activation) 및 학습 가중치 (weight)를 저장하는데 필요한 비트 수를 줄임으로써 동일한 양의 데이터 접근과 연산 비용 (칩 면적 및 에너지 소모 등)으로 더 많은 연산이 가능해지며 이로인해 속도와 에너지 소모를 동시에 최적화할 수 있다. 추후 딥 러닝을 활용하기 위하여 필요할 것으로 예측되는 에너지 효율 및 연산 속도를 만족시키기 위해서 4 비트 혹은 더 적은 정밀도 기반의 양자화 연산이 지대한 공헌을 할 것으로 기대된다.
그러나 양자화의 가장 중요한 단점 중 하나는 데이터의 표현형을 제한하여 자유도가 떨어지게 됨으로서 발생하는 정확도의 손실이다. 이러한 단점을 해결하기 위하여 다양한 연구들이 진행중이다. 최근 일부 연구들은 8 비트의 정밀도에서 뉴럴 네트워크를 활용해 결과를 추론 (inference)하는데 정확도 손실이 거의 없음을 보고하고 있다. 반면 그 외의 다양한 연구들을 통해 4 비트 혹은 더 낮은 정밀도에서 양자화를 적용했을 때 많은 네트워크들의 정확도가 크게 손상되는 현상도 함께 보고되고 있다. 특히 최근 제안된 네트워크들의 경우 성능 향상을 위해 도입한 최적화된 구조가 양자화 하기 어려운 특성을 가져 이러한 현상이 심화된다.
본 논문에서는 양자화된 DNN의 정확도 손실을 최소화하기위한 다양한 방법들을 제안하였다. 가중 엔트로피 기반 양자화 (Weighted-entropy-based quantization)은 제한된 개수의 양자화 레벨을 최대한 활용하기 위하여 양자화된 데이터의 정보량을 최대화하는 방향으로 양자화를 진행하도록 설계되었다. 이 연구를 통해 아주 깊은 네트워크에서도 뉴런의 활성도와 학습 가중치 모두의 양자화가 적용 가능함을 보였다. 값-의식 양자화 (value-aware quantization), 혹은 예외-의식 양자화 (outlier-aware quantization)는 빈도는 낮지만 큰 값을 가지는 데이터를 큰 정밀도로 저장하는 대신 나머지 데이터에 4 비트 이하의 양자화를 적용하도록 설계된 알고리즘이다. 이는 원본 데이터의 평균과 분산 같은 특성이 양자화된 후에도 유지하도록 도와주어 양자화된 네트워크의 정확도를 유지하는데 기여한다. 이에 더하여 OLAccel이라 명명된 특화 가속기를 제안하였다. 이 가속기는 값-의식 양자화 알고리즘을 통해 양자화된 네트워크를 가속함으로써 정확도 감소는 최소화 하면서 낮은 정밀도의 성능 이득을 최대화한다. 고정밀도-통로 구조 (precision-highway)는 네트워크의 구조를 개선하여 초저정밀도 연산을 수행하면서도 고정밀도 정보 통로를 생성한다. 이는 양자화로 인하여 에러가 누적되는 현상을 완화하여 매우 낮은 정밀도에서 정확도를 개선하는데 기여한다. 학습 기법인 BLast와 미분 가능하고 통합된 양자화 알고리즘 (DuQ)는 MobileNet-v3과 같은 최적화된 모바일향 네트워크를 최적화하기 위하여 제안되었다. 이 방법들을 통해 미미한 정확도 손실만으로 MobileNet-v3의 활성도 및 학습 가중치 모두를 4 비트 정밀도로 양자화하는데 성공하였다.
분석정보
서지정보 내보내기(Export)
닫기소장기관 정보
닫기권호소장정보
닫기오류접수
닫기오류 접수 확인
닫기음성서비스 신청
닫기음성서비스 신청 확인
닫기이용약관
닫기학술연구정보서비스 이용약관 (2017년 1월 1일 ~ 현재 적용)
학술연구정보서비스(이하 RISS)는 정보주체의 자유와 권리 보호를 위해 「개인정보 보호법」 및 관계 법령이 정한 바를 준수하여, 적법하게 개인정보를 처리하고 안전하게 관리하고 있습니다. 이에 「개인정보 보호법」 제30조에 따라 정보주체에게 개인정보 처리에 관한 절차 및 기준을 안내하고, 이와 관련한 고충을 신속하고 원활하게 처리할 수 있도록 하기 위하여 다음과 같이 개인정보 처리방침을 수립·공개합니다.
주요 개인정보 처리 표시(라벨링)
목 차
3년
또는 회원탈퇴시까지5년
(「전자상거래 등에서의 소비자보호에 관한3년
(「전자상거래 등에서의 소비자보호에 관한2년
이상(개인정보보호위원회 : 개인정보의 안전성 확보조치 기준)개인정보파일의 명칭 | 운영근거 / 처리목적 | 개인정보파일에 기록되는 개인정보의 항목 | 보유기간 | |
---|---|---|---|---|
학술연구정보서비스 이용자 가입정보 파일 | 한국교육학술정보원법 | 필수 | ID, 비밀번호, 성명, 생년월일, 신분(직업구분), 이메일, 소속분야, 웹진메일 수신동의 여부 | 3년 또는 탈퇴시 |
선택 | 소속기관명, 소속도서관명, 학과/부서명, 학번/직원번호, 휴대전화, 주소 |
구분 | 담당자 | 연락처 |
---|---|---|
KERIS 개인정보 보호책임자 | 정보보호본부 김태우 | - 이메일 : lsy@keris.or.kr - 전화번호 : 053-714-0439 - 팩스번호 : 053-714-0195 |
KERIS 개인정보 보호담당자 | 개인정보보호부 이상엽 | |
RISS 개인정보 보호책임자 | 대학학술본부 장금연 | - 이메일 : giltizen@keris.or.kr - 전화번호 : 053-714-0149 - 팩스번호 : 053-714-0194 |
RISS 개인정보 보호담당자 | 학술진흥부 길원진 |
자동로그아웃 안내
닫기인증오류 안내
닫기귀하께서는 휴면계정 전환 후 1년동안 회원정보 수집 및 이용에 대한
재동의를 하지 않으신 관계로 개인정보가 삭제되었습니다.
(참조 : RISS 이용약관 및 개인정보처리방침)
신규회원으로 가입하여 이용 부탁 드리며, 추가 문의는 고객센터로 연락 바랍니다.
- 기존 아이디 재사용 불가
휴면계정 안내
RISS는 [표준개인정보 보호지침]에 따라 2년을 주기로 개인정보 수집·이용에 관하여 (재)동의를 받고 있으며, (재)동의를 하지 않을 경우, 휴면계정으로 전환됩니다.
(※ 휴면계정은 원문이용 및 복사/대출 서비스를 이용할 수 없습니다.)
휴면계정으로 전환된 후 1년간 회원정보 수집·이용에 대한 재동의를 하지 않을 경우, RISS에서 자동탈퇴 및 개인정보가 삭제처리 됩니다.
고객센터 1599-3122
ARS번호+1번(회원가입 및 정보수정)