암시적 신경 표현을 이용한 적대적 생성 모델의 효율적인 학습 방법 = Efficient Training of Implicit Neural Representation GANs
저자
발행사항
서울 : 서울대학교 대학원, 2022
학위논문사항
학위논문(석사)-- 서울대학교 대학원 : 컴퓨터공학부 2022. 2
발행연도
2022
작성언어
한국어
주제어
DDC
621.39
발행국(도시)
서울
형태사항
iv, 27 ; 26 cm
일반주기명
지도교수: 유승주
UCI식별코드
I804:11032-000000170091
DOI식별코드
소장기관
Generative Adversarial Network (GAN) has made tremendous progress despite its very short history, reaching the level of generating fake images that are not distinguished from real ones. Although many researches have been conducted on data-efficient GAN training along with the development of GAN’s generation capability, researches have not been conducted on efficient GAN training of computational and memory perspective, which is an essential field for image training over 4K. The reason for the absence of these studies is that innovation of learning methods has been difficult in 3x3 convolutional GANs, which are still commonly used. However, GANs made of multi-layer perceptrons have recently emerged one by one by applying implicit neural representation (INR) to GANs. GANs using INR (INR-GAN) has the potential for efficient training that could not be attempted in 3x3 convolutional GANs because it is characterized by being able to create the desired portion of the image at the desired resolution. We propose multi-stage learning as a way to enable efficient training in INR-GAN using the above features. In addition, we propose the use of multi-scale reconstruction loss and contrastive loss without negative pairs that can maximize the performance of multi-stage training. Experimental results show that the same FID performance can be obtained using only ~20% MACs and ~20% GPU memory compared to conventional training methods.
더보기적대적 생성 모델 (GAN)은 그 역사가 매우 짧음에도 불구하고 엄청난 발전을 이루어, 현재는 실존하는 이미지와 구분이 되지 않는 가짜 이미지를 생성할 수 있는 수준에 이르렀다. GAN의 생성 능력 발전과 더불어 데이터 효율적인 GAN 학습에 대한 연구는 많이 이루어지고 있지만, 계산 및 메모리 관점에서 효율적인 GAN 학습에 대한 연구는 이루어지고 있지 않으므로 이는 4K 이상의 초고해상도 이미지 학습 등을 위해서 반드시 연구가 필요한 분야이다. 이러한 연구가 없었던 이유는 현재까지도 흔히 사용되는 3x3 컨볼루션 GAN에서는 학습 방법의 혁신이 어려웠기 때문인데, 최근 암시적 신경 표현 (Implicit Neural Representation, INR)을 GAN에 적용하여 다층 퍼셉트론으로 이루어진 GAN이 하나둘씩 등장하고 있다. INR을 이용한 GAN (INR-GAN)은 이미지의 원하는 부분을 원하는 해상도로 생성할 수 있다는 특징이 있어 3x3 컨볼루션 GAN에서는 시도할 수 없었던 효율적인 학습에 대한 잠재력을 가지고 있다. 따라서 우리는 위 특징을 이용하여 INR-GAN에서 효율적인 학습을 가능케 하는 방법으로 다단계 학습을 제안한다. 또한, 다단계 학습의 성능을 극대화 할 수 있는 다중 스케일 복원 손실함수와 음의 쌍이 없는 대조 손실함수의 사용을 제안한다. 실험 결과는 우리가 제안한 방법을 통해 기존의 학습 방법 대비 ~20%의 MACs, ~20%의 GPU 메모리만 사용하여 같은 FID 성능을 얻어낼 수 있음을 보여준다.
더보기분석정보
서지정보 내보내기(Export)
닫기소장기관 정보
닫기권호소장정보
닫기오류접수
닫기오류 접수 확인
닫기음성서비스 신청
닫기음성서비스 신청 확인
닫기이용약관
닫기학술연구정보서비스 이용약관 (2017년 1월 1일 ~ 현재 적용)
학술연구정보서비스(이하 RISS)는 정보주체의 자유와 권리 보호를 위해 「개인정보 보호법」 및 관계 법령이 정한 바를 준수하여, 적법하게 개인정보를 처리하고 안전하게 관리하고 있습니다. 이에 「개인정보 보호법」 제30조에 따라 정보주체에게 개인정보 처리에 관한 절차 및 기준을 안내하고, 이와 관련한 고충을 신속하고 원활하게 처리할 수 있도록 하기 위하여 다음과 같이 개인정보 처리방침을 수립·공개합니다.
주요 개인정보 처리 표시(라벨링)
목 차
3년
또는 회원탈퇴시까지5년
(「전자상거래 등에서의 소비자보호에 관한3년
(「전자상거래 등에서의 소비자보호에 관한2년
이상(개인정보보호위원회 : 개인정보의 안전성 확보조치 기준)개인정보파일의 명칭 | 운영근거 / 처리목적 | 개인정보파일에 기록되는 개인정보의 항목 | 보유기간 | |
---|---|---|---|---|
학술연구정보서비스 이용자 가입정보 파일 | 한국교육학술정보원법 | 필수 | ID, 비밀번호, 성명, 생년월일, 신분(직업구분), 이메일, 소속분야, 웹진메일 수신동의 여부 | 3년 또는 탈퇴시 |
선택 | 소속기관명, 소속도서관명, 학과/부서명, 학번/직원번호, 휴대전화, 주소 |
구분 | 담당자 | 연락처 |
---|---|---|
KERIS 개인정보 보호책임자 | 정보보호본부 김태우 | - 이메일 : lsy@keris.or.kr - 전화번호 : 053-714-0439 - 팩스번호 : 053-714-0195 |
KERIS 개인정보 보호담당자 | 개인정보보호부 이상엽 | |
RISS 개인정보 보호책임자 | 대학학술본부 장금연 | - 이메일 : giltizen@keris.or.kr - 전화번호 : 053-714-0149 - 팩스번호 : 053-714-0194 |
RISS 개인정보 보호담당자 | 학술진흥부 길원진 |
자동로그아웃 안내
닫기인증오류 안내
닫기귀하께서는 휴면계정 전환 후 1년동안 회원정보 수집 및 이용에 대한
재동의를 하지 않으신 관계로 개인정보가 삭제되었습니다.
(참조 : RISS 이용약관 및 개인정보처리방침)
신규회원으로 가입하여 이용 부탁 드리며, 추가 문의는 고객센터로 연락 바랍니다.
- 기존 아이디 재사용 불가
휴면계정 안내
RISS는 [표준개인정보 보호지침]에 따라 2년을 주기로 개인정보 수집·이용에 관하여 (재)동의를 받고 있으며, (재)동의를 하지 않을 경우, 휴면계정으로 전환됩니다.
(※ 휴면계정은 원문이용 및 복사/대출 서비스를 이용할 수 없습니다.)
휴면계정으로 전환된 후 1년간 회원정보 수집·이용에 대한 재동의를 하지 않을 경우, RISS에서 자동탈퇴 및 개인정보가 삭제처리 됩니다.
고객센터 1599-3122
ARS번호+1번(회원가입 및 정보수정)