심층 신경망을 기반으로 한 합성 스케치 식별
저자
발행사항
전주: 전북대학교 일반대학원, 2019
학위논문사항
학위논문(석사)-- 전북대학교 일반대학원 : 전자·정보공학부(컴퓨터공학 전공) 2019. 2
발행연도
2019
작성언어
영어
주제어
발행국(도시)
전북특별자치도
기타서명
Composite Sketch Identification Based on Deep Neural Networks
형태사항
xvii, 53 p.: 삽화, 표; 26 cm.
일반주기명
전북대학교 논문은 저작권에 의해 보호받습니다.
지도교수: 이효종
참고문헌 : p. 46-53
UCI식별코드
I804:45011-000000049390
소장기관
Automatic face sketch-to-photo identification has become an important topic in computer vision and machine learning. Hence, there is an urgent need for a method that can automatically and efficiently identify sketches from a gallery of digital photos. Inspired by recent advances in computer vision with convolutional neural networks, this work presents a novel approach that identifies the corresponding photo of a given composite sketch. In contrast, the traditional modalities use global appearance features or rely on keypoints’ features. The main goal of this thesis is to learn the relevant latent features between composite sketches and digital photos.
To accomplish this, a coupled deep convolutional neural network, named Sketch-Photo Net (SP-Net) is proposed in this thesis. This network is fed through a pair of a sketch and its corresponding photo is called positive pair. Then to allow the network to learn irrelevant features, the negative pair is also used as an input to the SP-Net. The negative pair is created by selecting a sketch and 40 non-corresponding photos. The proposed SP-Net includes VGG-Face network as its base model followed by two branches, P-Net, and S-Net for photo and sketch respectively. The P-Net and the S-Net showed the ability to learn distinguishable features between the sketch and the photo, regardless of the appearance gap by introducing the concept of elastic learning. This concept is based on extracting the most important features of the input. The elastic learning allows the network to learn the irrelevant features alongside relevant ones, by increasing the feature map’s dimension, resulting from the VGG-Face network, which means a higher probability of error. It is then scaled down to a lower dimension, so the most representative features are produced. To discover the coherent visual structures between the sketch and photo, the contrastive loss is used.
Because, there is a limited number of composite sketch datasets available and utilizing deep learning networks requires a large dataset, data augmentation techniques such as scaling, and flipping are used to avoid over-fitting. Experiments on the E-PRIP face sketch dataset demonstrate the effectiveness of the proposed network. For instance, the accuracy of identification in rank-1 is 28.3% (±1.3%), in rank-5 is 53.1% (±1.3%) and 80.0% (±1.3%) in rank-10. The proposed coupled deep neural network significantly outperforms the state-of-the-art sketch-photo identification.
자동 얼굴 스케치 인식은 컴퓨터 비전 및 기계 학습에서 중요한 주제가 되었다. 이러한 이유로 디지털 사진 갤러리로부터 얼굴 스케치를 효율적으로 식별할 수 있는 방법이 필요로 되고 있다. 최근 발전한 컴퓨터비전의 컨볼루션 신경망에서 영감을 받아 주어진 합성 스케치의 해당 사진을 식별하는 새로운 접근 방식을 제안한다. 전통적인 얼굴 스케치 인식은 위에서 제시한 방법과는 대조적으로 전역적으로 나타나는 특징을 이용하거나 키포인트 특징을 이용한다. 본 논문의 주된 목표는 얼굴 스케치와 디지털 사진 사이의 관련된 특징을 학습하는 것이다.
목표를 달성하기 위해 Sketch-Photo Net(SP-Net)이라는 이름의 결합된 심층 컨볼루션 신경망을 제안한다. 본 네트워크는 한 쌍의 얼굴 스케치가 입력으로 주어지며 이를 긍정 쌍이라고 한다. 이후 네트워크가 관련 없는 특징을 학습하도록 음의 쌍도 SP-Net의 입력으로 사용한다. 음의 쌍은 스케치와 40개의 비 대응 사진을 선택하여 생성한다. 제안된 SP-Net은 기본 모델로 VGG-Face 네트워크가 포함되어 있으며 스케치를 위한 S-Net와 사진을 위한 P-Net이 있습니다. S-Net와 P-Net은 탄력 학습의 개념의 도입하여 스케치와 사진의 모양에 상관없이 특징을 학습할 수 있다. 이 개념은 입력의 가장 중요한 특징을 추출하는 것을 기반으로 한다. 탄력 학습은 네트워크가 VGG-Face 네트워크로 인한 특징맵의 차원을 증가시킴으로써 관련 있는 특징과 없는 특징을 학습할 수 있게 한다. 이후 더 낮은 차원으로 축소하여 가장 대표적인 특징을 생성한다. 스케치와 사진 사이의 일관된 시각적 구조를 발견하기 위해 대조적 손실(Contrastive loss)이 사용된다.
제한된 수의 얼굴 스케치 데이터 세트가 있기 때문에 심층 학습 네트워크를 활용하려면 대규모 데이터 세트가 필요하다. 이러한 문제를 해결하기위해 확장 및 뒤집기와 같은 데이터 세트 확대 기법을 사용한다. 제안된 네트워크의 E-PRIP 얼굴 스케치 데이터 세트에 대한 랭크-1의 식별 정확도는 28.3%((±1.3%), 랭크-5는 53.1% (±1.3%) 그리고 랭크-10은 80.0% (±1.3%) 이다. E-PRIP 얼굴 스케치 데이터 세트에 대한 실험은 제안된 네트워크의 효율성이 높음을 보여주며 또한 최신 얼굴 스케치 인식 기술과 비교하여 현저하게 우수한 성능을 보여준다.
분석정보
서지정보 내보내기(Export)
닫기소장기관 정보
닫기권호소장정보
닫기오류접수
닫기오류 접수 확인
닫기음성서비스 신청
닫기음성서비스 신청 확인
닫기이용약관
닫기학술연구정보서비스 이용약관 (2017년 1월 1일 ~ 현재 적용)
학술연구정보서비스(이하 RISS)는 정보주체의 자유와 권리 보호를 위해 「개인정보 보호법」 및 관계 법령이 정한 바를 준수하여, 적법하게 개인정보를 처리하고 안전하게 관리하고 있습니다. 이에 「개인정보 보호법」 제30조에 따라 정보주체에게 개인정보 처리에 관한 절차 및 기준을 안내하고, 이와 관련한 고충을 신속하고 원활하게 처리할 수 있도록 하기 위하여 다음과 같이 개인정보 처리방침을 수립·공개합니다.
주요 개인정보 처리 표시(라벨링)
목 차
3년
또는 회원탈퇴시까지5년
(「전자상거래 등에서의 소비자보호에 관한3년
(「전자상거래 등에서의 소비자보호에 관한2년
이상(개인정보보호위원회 : 개인정보의 안전성 확보조치 기준)개인정보파일의 명칭 | 운영근거 / 처리목적 | 개인정보파일에 기록되는 개인정보의 항목 | 보유기간 | |
---|---|---|---|---|
학술연구정보서비스 이용자 가입정보 파일 | 한국교육학술정보원법 | 필수 | ID, 비밀번호, 성명, 생년월일, 신분(직업구분), 이메일, 소속분야, 웹진메일 수신동의 여부 | 3년 또는 탈퇴시 |
선택 | 소속기관명, 소속도서관명, 학과/부서명, 학번/직원번호, 휴대전화, 주소 |
구분 | 담당자 | 연락처 |
---|---|---|
KERIS 개인정보 보호책임자 | 정보보호본부 김태우 | - 이메일 : lsy@keris.or.kr - 전화번호 : 053-714-0439 - 팩스번호 : 053-714-0195 |
KERIS 개인정보 보호담당자 | 개인정보보호부 이상엽 | |
RISS 개인정보 보호책임자 | 대학학술본부 장금연 | - 이메일 : giltizen@keris.or.kr - 전화번호 : 053-714-0149 - 팩스번호 : 053-714-0194 |
RISS 개인정보 보호담당자 | 학술진흥부 길원진 |
자동로그아웃 안내
닫기인증오류 안내
닫기귀하께서는 휴면계정 전환 후 1년동안 회원정보 수집 및 이용에 대한
재동의를 하지 않으신 관계로 개인정보가 삭제되었습니다.
(참조 : RISS 이용약관 및 개인정보처리방침)
신규회원으로 가입하여 이용 부탁 드리며, 추가 문의는 고객센터로 연락 바랍니다.
- 기존 아이디 재사용 불가
휴면계정 안내
RISS는 [표준개인정보 보호지침]에 따라 2년을 주기로 개인정보 수집·이용에 관하여 (재)동의를 받고 있으며, (재)동의를 하지 않을 경우, 휴면계정으로 전환됩니다.
(※ 휴면계정은 원문이용 및 복사/대출 서비스를 이용할 수 없습니다.)
휴면계정으로 전환된 후 1년간 회원정보 수집·이용에 대한 재동의를 하지 않을 경우, RISS에서 자동탈퇴 및 개인정보가 삭제처리 됩니다.
고객센터 1599-3122
ARS번호+1번(회원가입 및 정보수정)