심층 신경망의 경량화를 위한 아웃라이어 인지 양자화 기법 = Outlier-Aware Quantization Technique for Lightweight Deep Neural Networks
저자
발행사항
경산 : 대구대학교 일반대학원, 2022
학위논문사항
학위논문(박사)-- 대구대학교 일반대학원 : 정보통신공학과 인공지능 2022. 8
발행연도
2022
작성언어
한국어
주제어
발행국(도시)
경상북도
형태사항
vi, 111 ; 26 cm
일반주기명
지도교수: 유준혁
UCI식별코드
I804:47009-200000640926
소장기관
The complexity and computation power of Deep Neural Network (DNN) models are major factors that make it difficult to deploy the DNN model to embedded mobile devices with limited computing resources. To address this problem, the quantization technique can be employed to reduce the size of the model and the energy consumption simultaneously by converting a 32-bit floating-point number representation into fixed-point or integer types of 8 bits or less. This dissertation proposes an outlier-aware quantization technique for lightweight DNNs to show that deep learning techniques can be used in applications in CPU environments through quantization-based deep neural network model compression.
Quantization has a strong compression performance, but the problem of performance degradation occurs due to quantization errors. To alleviate the performance degradation, some previous works train weights and quantization parameters (bit precision, quantization step size, etc.) together through Quantization-Aware Training (QAT). However, since the QAT method relies on the training data and requires re-training, the Post-Training Quantization (PTQ) method has been recently proposed to solve the aforementioned problem.
The PTQ techniques that instantaneously quantize the weights of the trained models have no training overhead but suffer from performance degradation problems with low precision below 4 bits. Some previous studies point out that this degradation is caused by outliers that rarely occur outside the weight distribution because outliers make the quantization dynamic range wider reducing the quantization resolution. To handle these outliers, existing approaches make the quantization dynamic range narrow by applying either clipping or scaling techniques to weight distributions. Even if the previous algorithms operate reliably at above 8 bits, they cannot maintain performance compared with the full-precision model at ultra low bit precision below 4 bits.
Unlike previous studies that focus on reducing the quantization dynamic range by eliminating outliers, this dissertation presents an insight that it is quite critical for the quantized model to well approximate the trained weight distribution by analyzing an observation based on the Structural SIMilarity (SSIM) measurement method. Furthermore, the shortcomings of previous outlier handling methods are provided by the SSIM measurement results. Based on this observation, this dissertation proposes an Outlier-Aware Quantization (OAQ) method that can handle outliers effectively to increase quantization resolution by exploiting a scaling factor for the outliers. The proposed OAQ can reduce the quantization dynamic range and simultaneously distributing the weight distribution in an appropriate way. The proposed OAQ is orthogonal to the existing quantization schemes, so it can be merged with various quantization methods. It also has an advantage that it does not require any additional computational overhead. Experimental results show that the proposed OAQ method effectively reduces the quantization error in all validation situations with a combination of several popular CNN models and quantization techniques.
To verify that the proposed quantization technique can be efficiently employed in real-world applications, the OAQ technique is applied to problems of object detection and federated learning domains. As the first application task, this dissertation applies the quantization technique to solve the slow-processing-speed problem of small defect detection models based on region proposal. A Real-Time IP-CNN based Small Pit Defect Detection (RT-SPeeDet) model is proposed in this dissertation, which that replaces the RCNN-based detection model with an image-processing-based region proposal module and a CNN classifier. In the experimental results, the classifier of RT-SPeeDet quantized by 8-bits results in a 14x improvement in classification speed and 2 times faster than the end-to-end detection speed in a CPU environment.
As the second application task, we analyze the effectiveness of quantization on federated learning by applying the proposed OAQ to federated learning domains comparing it with quantization-aware training techniques. Experimental results show that the proposed OAQ can also increase performance by promoting generalization of the DNN model as well as model compression in FL domains and identify that the weight distribution biased by the class imbalance in the shared model training process for federated learning can affect the overall quantization performance.
In conclusion, the proposed OAQ technique is quite effective for several edge AI environments, requiring lightweight DNN models in domains of image classification, object detection, and federated learning.
심층 신경망(Deep Neural Network, DNN)의 모델 크기와 연산량은 컴퓨팅 리소스가 제한된 모바일 장치로의 배포를 어렵게 만드는 주된 요인이다. 이러한 문제를 해결하기 위해 제안된 모델 압축 방식 중 양자화 기법은 32비트 부동소수점 기반의 계산을 8비트 이하의 고정소수점 혹은 정수형으로 변환함으로써 모델의 크기와 연산 과정에서 발생하는 에너지 소비량을 동시에 줄일 수 있도록 한다. 본 논문은 양자화 기반의 심층 신경망 모델 압축을 통해 GPU 서버가 아닌 임베디드 컴퓨팅 환경에서도 딥러닝 기반의 기술들을 경량화하여 사용할 수 있음을 보여준다.
양자화 기법은 강력한 압축 성능을 제공하지만, 양자화 오류로 인해 성능이 저하되는 문제가 발생한다. 양자화 오류로 인해 손실된 성능을 보상하기 위해 기존 연구에서는 양자화 인식 학습(Quantization-Aware Training, QAT)을 통해 가중치와 양자화 매개변수(양자화 정밀도, 양자화 간격 등)를 함께 학습한다. 하지만 양자화 인식 학습 방법은 학습 데이터 및 학습 과정에 의존하기 때문에 추가적인 학습 과정을 요구하지 않는 사후 학습 양자화(Post-Training Quantization, PTQ) 방식이 제안되었다.
학습된 모델의 가중치를 입력받아 즉각적인 양자화를 수행하는 사후 학습 양자화 기법은 학습 오버헤드가 없다는 장점이 있지만 4비트 이하의 저정밀도에서 여전히 성능 저하가 발생한다. 기존 연구들은 이러한 성능 저하의 원인이 가중치 분포의 바깥쪽에서 드물게 발생하는 아웃라이어(Outlier)에 있음을 지적한다. 아웃라이어로 인해 양자화 동적범위가 넓어지면 양자화 해상도가 낮아진다. 기존의 방법들은 이러한 아웃라이어를 처리하기 위해 가중치 클리핑(Clipping) 기법이나 가중치 분포의 스케일링 방식을 통해 양자화 동적범위를 좁힌다. 그럼에도 불구하고 제안된 알고리즘들은 8비트에서 안정적으로 동작하지만 4비트 이하의 정밀도에서는 제안된 아이디어만 단독적으로 사용하여 성능을 개선시키지 못한다.
양자화의 동적범위를 줄이는 것에 초점을 맞춘 기존 연구와는 달리 본 논문에서는 양자화된 모델이 학습된 가중치 분포를 잘 근사하는 것이 매우 중요하다는 점을 제시하고 이를 가중치 분포의 구조적 유사도(Structural SIMilarity, SSIM) 측정 방식을 통해 증명한다. 또한 SSIM 지표를 통해 기존에 제안된 방법들의 문제점을 설명한다. 이러한 사실을 기반으로 본 논문에서는 아웃라이어의 악영향을 완화할 수 있는 아웃라이어 인지 양자화(Outlier-Aware Quantization, OAQ) 기법을 제안한다. 제안된 OAQ 기법은 아웃라이어를 직접적으로 스케일링하여 양자화 동적범위를 줄일 뿐만 아니라, 가중치 분포를 고르게 분산시킴으로써 양자화 해상도를 향상시킨다. OAQ는 기존 양자화 체계와 독립적으로 다양한 양자화 방법과 병합할 수 있으며 추가 계산 비용이 필요하지 않다는 장점이 있다. 다양한 CNN 모델과 양자화 방식에 따른 실험은 제안된 기법이 모든 상황에서 양자화 오류를 효과적으로 감소시킨다는 것을 입증한다.
제안하는 양자화 기법이 실제 AI 응용 도메인에서 효과적으로 활용될 수 있음을 검증하기 위해 객체 검출과 연합학습 영역에 본 양자화 기법을 적용했다. 첫 번째로 소형 결함 검출에 주로 사용되는 영역 제안(Region Proposal) 기반 검출 모델의 느린 처리 속도 문제를 해결하기 위해 양자화를 적용했다. 먼저 모델의 경량화를 위해 R-CNN 기반의 검출 모델을 영상처리(Image Processing) 기술 기반의 영역 제안 모듈과 CNN 분류기로 대체한 RT-SPeeDet(Real-Time IP-CNN Based Small Pit Defect Detection) 모델을 설계했다. 더 나아가, RT-SPeeDet의 분류기를 8비트 정수형으로 양자화함으로써 분류 속도가 14배 향상되었으며 End-to-End 검출 속도 측면에서 보면 CPU 환경에서의 검출 속도가 당초 GPU 환경에서의 검출 속도 보다 2배 이상 향상되었다.
두 번째 실험에서는 연합학습 도메인에 주로 활용되는 양자화 인식 학습 기법 대신 본 논문에서 제안된 OAQ 사후 학습 양자화를 적용하여 연합학습에 대한 양자화의 효과를 분석하였다. 실험 결과는 연합학습의 공유 모델 학습 과정에서 클래스 불균형으로 인해 편향된 가중치 분포가 양자화에 영향을 끼칠 수 있음을 보여준다. 이러한 문제는 양자화의 적용을 통해 해결될 수 있으며 양자화가 모델 압축 성능뿐만 아니라 모델의 일반화를 촉진시켜 성능 향상에 기여할 수 있다는 점을 입증한다.
분석정보
서지정보 내보내기(Export)
닫기소장기관 정보
닫기권호소장정보
닫기오류접수
닫기오류 접수 확인
닫기음성서비스 신청
닫기음성서비스 신청 확인
닫기이용약관
닫기학술연구정보서비스 이용약관 (2017년 1월 1일 ~ 현재 적용)
학술연구정보서비스(이하 RISS)는 정보주체의 자유와 권리 보호를 위해 「개인정보 보호법」 및 관계 법령이 정한 바를 준수하여, 적법하게 개인정보를 처리하고 안전하게 관리하고 있습니다. 이에 「개인정보 보호법」 제30조에 따라 정보주체에게 개인정보 처리에 관한 절차 및 기준을 안내하고, 이와 관련한 고충을 신속하고 원활하게 처리할 수 있도록 하기 위하여 다음과 같이 개인정보 처리방침을 수립·공개합니다.
주요 개인정보 처리 표시(라벨링)
목 차
3년
또는 회원탈퇴시까지5년
(「전자상거래 등에서의 소비자보호에 관한3년
(「전자상거래 등에서의 소비자보호에 관한2년
이상(개인정보보호위원회 : 개인정보의 안전성 확보조치 기준)개인정보파일의 명칭 | 운영근거 / 처리목적 | 개인정보파일에 기록되는 개인정보의 항목 | 보유기간 | |
---|---|---|---|---|
학술연구정보서비스 이용자 가입정보 파일 | 한국교육학술정보원법 | 필수 | ID, 비밀번호, 성명, 생년월일, 신분(직업구분), 이메일, 소속분야, 웹진메일 수신동의 여부 | 3년 또는 탈퇴시 |
선택 | 소속기관명, 소속도서관명, 학과/부서명, 학번/직원번호, 휴대전화, 주소 |
구분 | 담당자 | 연락처 |
---|---|---|
KERIS 개인정보 보호책임자 | 정보보호본부 김태우 | - 이메일 : lsy@keris.or.kr - 전화번호 : 053-714-0439 - 팩스번호 : 053-714-0195 |
KERIS 개인정보 보호담당자 | 개인정보보호부 이상엽 | |
RISS 개인정보 보호책임자 | 대학학술본부 장금연 | - 이메일 : giltizen@keris.or.kr - 전화번호 : 053-714-0149 - 팩스번호 : 053-714-0194 |
RISS 개인정보 보호담당자 | 학술진흥부 길원진 |
자동로그아웃 안내
닫기인증오류 안내
닫기귀하께서는 휴면계정 전환 후 1년동안 회원정보 수집 및 이용에 대한
재동의를 하지 않으신 관계로 개인정보가 삭제되었습니다.
(참조 : RISS 이용약관 및 개인정보처리방침)
신규회원으로 가입하여 이용 부탁 드리며, 추가 문의는 고객센터로 연락 바랍니다.
- 기존 아이디 재사용 불가
휴면계정 안내
RISS는 [표준개인정보 보호지침]에 따라 2년을 주기로 개인정보 수집·이용에 관하여 (재)동의를 받고 있으며, (재)동의를 하지 않을 경우, 휴면계정으로 전환됩니다.
(※ 휴면계정은 원문이용 및 복사/대출 서비스를 이용할 수 없습니다.)
휴면계정으로 전환된 후 1년간 회원정보 수집·이용에 대한 재동의를 하지 않을 경우, RISS에서 자동탈퇴 및 개인정보가 삭제처리 됩니다.
고객센터 1599-3122
ARS번호+1번(회원가입 및 정보수정)