자발적/인위적 웃음 표정 분류를 위한 시공간적 특징 기반 기계학습 모델 연구 = A study on temporal-spatial feature based machine learning model for spontaneous/posed smile facial expression classification
저자
발행사항
서울: 상명대학교 일반대학원, 2019
학위논문사항
학위논문(석사)-- 상명대학교 일반대학원 ; 컴퓨터과학과 2019. 2
발행연도
2019
작성언어
한국어
주제어
DDC
004 판사항(23)
발행국(도시)
서울
형태사항
50p.; 26cm
일반주기명
상명대학교 논문은 저작권에 의해 보호받습니다.
A study on temporal-spatial feature based machine learning model for spontaneous/posed smile facial expression classification
지도교수:이의철
참고문헌 수록
UCI식별코드
I804:11028-200000178712
소장기관
Facial expression has been studied in many fields such as psychology, emotion engineering, and forensic science because it is a representative indicator of a human's psychological state. Over the last 40 years, studies on the difference between spontaneous and posed facial expressions have been actively studied, and it is known that spontaneous smile and posed smile are expressed by different motor cortex through clinical studies. For this reason, movement of orbicularis oculi in posed smile is less than spontaneous smile and facial asymmetry of facial muscles movement is stronger. In this paper, we propose a temporal-spatial score level fusion model that classifies spontaneous smile and posed smile by learning the temporal-spatial differences. The proposed model is based on the temporal convolutional network, which learns the facial muscle movements. Also, the model is based on the temporal facial symmetry feature, which is computed by a new facial symmetry measurement algorithm. These feature and model are new approach not used in previous studies. Experimental data were obtained for 115 adults. posed smile were taken through verbal commands, and spontaneous smile were taken through stimulus video to induce the spontaneous smile of the subject. A total of 902 spontaneous and posed smiles were captured and divided into 36,730 temporal-spatial data. The temporal-spatial data consisted of 18,443 spontaneous smiles and 18,287 posed smiles. In the proposed temporal-spatial feature-based score level fusion model, the score values of four classifiers are fused using support vector machine(SVM). The first classifier calculates the score value by learning spatial features of a single frame. The second classifier calculates the score value by inputting the temporal facial symmetry feature. The third and fourth classifiers calculate the score value by learning facial muscle movements features for 1 second, which is the results of optical flow in image sequences of the upper and lower faces, respectively. A total of four classifiers were trained with 85% of the total data and the performance was measured with the remaining 15% of the test data. The training data and the test data are composed of the experimenters who do not overlap with each other, so that the generalized performance measurement is made possible. Experimental results show that the accuracy of the temporal-spatial score level fusion model is 86.22%.
Keyword : facial expression, spontaneous facial expression, posed facial expression, machine learning, temporal-spatial feature, score level fusion model, temporal convolutional network
얼굴 표정은 사람이 자신의 감정을 표현하는 대표적인 수단으로써 심리학, 감성공학, 법과학 등 많은 분야에서 연구되어져왔다. 이러한 연구 중 자발적 표정과 인위적 표정의 차이에 대한 연구는 지난 40년부터 지금까지 활발하게 연구되어져 왔다. 또한, 많은 임상 연구를 통해 자발적 웃음과 인위적 웃음은 서로 다른 뇌의 운동 피질에 의해 조절되는 것으로 알려져 있다. 이로 인해 인위적 표정의 경우 눈 주위의 안륜근(orbicularis oculi)의 움직임이 자발적 표정보다 적고 표정 변화에서 얼굴의 비대칭이 더 강하게 나타나는 것으로 연구되어왔다. 본 논문에서는 이러한 자발적 웃음과 인위적 웃음의 시공간적 특징의 차이를 학습하여 자발적 웃음과 인위적 웃음을 분류하는 시공간적 특징 기반 기계학습 모델을 제안한다. 제안하는 모델은 temporal convolutional network를 통해 학습되는 얼굴 근육 움직임 특징과 시계열 얼굴 대칭 특징 데이터와 같이 기존 연구에서 사용되지 않았던 특징을 학습하여 분류를 시도한다. 실험 데이터는 성인 115명을 대상으로 취득되었으며 인위적 웃음은 언어적 명령을 통해, 자발적 웃음은 자극 영상을 통해 실험자의 웃음을 자연스럽게 유도하여 촬영되었다. 촬영 결과, 총 902번의 자발적 및 인위적 웃음이 측정되었고 학습을 위해 총 36,730개의 시계열 데이터로 분할되었다. 분할된 데이터는 자발적인 웃음 18,443개 그리고 인위적 웃음 18,287개로 구성되었다. 제안하는 시공간적 특징 기반 기계학습 모델은 총 4개의 분류기의 점수를 SVM(support vector machine)의 입력으로 사용해 fusion 한다. 첫 번째 분류기는 단일프레임의 공간적 특징을 입력 받아 점수를 계산한다. 두 번째 분류기는 얼굴의 대칭성 측정 알고리즘을 통해 산출된 시계열 얼굴 대칭 특징을 입력 받아 점수를 계산한다. 세 번째 및 네 번째 분류기는 각각 얼굴의 상부, 하부의 연속된 이미지 시퀀스 30장의 optical flow를 수행한 결과를 학습함으로써 1초 동안의 얼굴의 근육 움직임을 특징으로 점수를 산출한다. 총 4개의 분류기는 총 데이터 중 85%에 해당하는 학습 데이터로 학습되어졌으며 나머지 15%의 테스트 데이터로 성능이 측정 되었다. 학습 데이터와 테스트 데이터는 서로 중복되지 않는 실험자의 데이터로 구성되어 일반화된 성능 측정이 가능하도록 하였다. 그 결과, 시공간적 특징 기반 기계학습 모델의 성능 측정 결과 86.22%의 정확도가 측정되었다.
주요어: 얼굴 표정, 자발적 얼굴 표정, 인위적 얼굴 표정, 머신 러닝, 시공간적 특징, score level fusion model, temporal convolutional network
분석정보
서지정보 내보내기(Export)
닫기소장기관 정보
닫기권호소장정보
닫기오류접수
닫기오류 접수 확인
닫기음성서비스 신청
닫기음성서비스 신청 확인
닫기이용약관
닫기학술연구정보서비스 이용약관 (2017년 1월 1일 ~ 현재 적용)
학술연구정보서비스(이하 RISS)는 정보주체의 자유와 권리 보호를 위해 「개인정보 보호법」 및 관계 법령이 정한 바를 준수하여, 적법하게 개인정보를 처리하고 안전하게 관리하고 있습니다. 이에 「개인정보 보호법」 제30조에 따라 정보주체에게 개인정보 처리에 관한 절차 및 기준을 안내하고, 이와 관련한 고충을 신속하고 원활하게 처리할 수 있도록 하기 위하여 다음과 같이 개인정보 처리방침을 수립·공개합니다.
주요 개인정보 처리 표시(라벨링)
목 차
3년
또는 회원탈퇴시까지5년
(「전자상거래 등에서의 소비자보호에 관한3년
(「전자상거래 등에서의 소비자보호에 관한2년
이상(개인정보보호위원회 : 개인정보의 안전성 확보조치 기준)개인정보파일의 명칭 | 운영근거 / 처리목적 | 개인정보파일에 기록되는 개인정보의 항목 | 보유기간 | |
---|---|---|---|---|
학술연구정보서비스 이용자 가입정보 파일 | 한국교육학술정보원법 | 필수 | ID, 비밀번호, 성명, 생년월일, 신분(직업구분), 이메일, 소속분야, 웹진메일 수신동의 여부 | 3년 또는 탈퇴시 |
선택 | 소속기관명, 소속도서관명, 학과/부서명, 학번/직원번호, 휴대전화, 주소 |
구분 | 담당자 | 연락처 |
---|---|---|
KERIS 개인정보 보호책임자 | 정보보호본부 김태우 | - 이메일 : lsy@keris.or.kr - 전화번호 : 053-714-0439 - 팩스번호 : 053-714-0195 |
KERIS 개인정보 보호담당자 | 개인정보보호부 이상엽 | |
RISS 개인정보 보호책임자 | 대학학술본부 장금연 | - 이메일 : giltizen@keris.or.kr - 전화번호 : 053-714-0149 - 팩스번호 : 053-714-0194 |
RISS 개인정보 보호담당자 | 학술진흥부 길원진 |
자동로그아웃 안내
닫기인증오류 안내
닫기귀하께서는 휴면계정 전환 후 1년동안 회원정보 수집 및 이용에 대한
재동의를 하지 않으신 관계로 개인정보가 삭제되었습니다.
(참조 : RISS 이용약관 및 개인정보처리방침)
신규회원으로 가입하여 이용 부탁 드리며, 추가 문의는 고객센터로 연락 바랍니다.
- 기존 아이디 재사용 불가
휴면계정 안내
RISS는 [표준개인정보 보호지침]에 따라 2년을 주기로 개인정보 수집·이용에 관하여 (재)동의를 받고 있으며, (재)동의를 하지 않을 경우, 휴면계정으로 전환됩니다.
(※ 휴면계정은 원문이용 및 복사/대출 서비스를 이용할 수 없습니다.)
휴면계정으로 전환된 후 1년간 회원정보 수집·이용에 대한 재동의를 하지 않을 경우, RISS에서 자동탈퇴 및 개인정보가 삭제처리 됩니다.
고객센터 1599-3122
ARS번호+1번(회원가입 및 정보수정)