조현병 환자에서 시선패턴 분석을 이용한 얼굴 표정인식 능력 향상 훈련 템플레이트 개발 = Development of facial emotion recognition enhancement training template in patient with schizophrenia using visual pattern analysis
저자
발행사항
서울 : 건국대학교 대학원, 2020
학위논문사항
학위논문(박사)-- 건국대학교 대학원 : 의학과 임상의학전공 2020. 8
발행연도
2020
작성언어
한국어
주제어
발행국(도시)
서울
형태사항
38 ; 26 cm
일반주기명
지도교수: 남범우
UCI식별코드
I804:11004-200000320519
소장기관
Background: Facial expression is an important non-verbal way of expressing the emotional state of a person. If the process of perceiving facial features is impaired, the ability to recognize the emotional state of others is degraded, which may make it difficult to maintain proper interpersonal and social communications. Many studies have reported on the relevance between deficit of facial emotion recognition(FER) and the social functioning in schizophrenia patients. Therefore, we developed FER enhancement training template in patients with schizophrenia using Hidden Markov Model(HMM), heatmap and difference heatmap.
Method: We enrolled patients visited and admitted Gongju National Hospital; and healthy controls visited Chungnam National University from Sep 2017 to Apr 2018. We recorded and analyzed the eye movements of 83 patients and 85 controls during their FER process using eye tracker. They stared the 96 emotion stimulant pictures (16 neutral, 16 happy, 16 sad, 16 angry, 16 fearful, and 16 disgusted) freely and inform the facial emotion of corresponding pictures which they think it subjectively. For analyzing eye tracker data, we set the three region of interests on the facial emotion pictures(eyes, nose, and mouth) and extracted the scan path data like as fixation counts, fixation duration, first fixation duration, percent of fixation duration, and percent of fixation revisit. And we modeled the eye movement pattern of each individual using an HMM, which can summarize the participant’s scan paths during facial expression recognition.
Results: The HMMs of the participants were grouped into clusters based on distinct scanning patterns. The participants’ eye movement patterns could be categorized into 2 groups as HMM setting. After then, we identified heatmap and difference heatmap between patients and controls using HMM based weighted algorithm. Finally we developed a new FER enhancement training program by combining HMM pattern and difference heatmap.
Conclusion: We identified a clear difference of visual pattern between patients with schizophrenia and controls when they recognize FER. Interpreting and combining these difference, we developed a new FER enhancement training template.
배경: 얼굴 표정은 사람의 감정 상태를 나타내는 중요한 비언어적 방법이다. 얼굴의 특징을 지각하는 과정이 손상되면 다른 사람의 감정 상태를 인식하는 능력이 떨어지고 이로 인해 원만한 대인관계 및 사회적 활동을 유지하기가 어려울 수 있다. 많은 연구들이 조현병 환자에서 얼굴표정인식 능력의 손상과 사회적 기능 사이에 관련이 있음을 보고 하고 있다. 따라서 우리는 조현병 환자의 얼굴표정인식 능력을 향상시키기 위하여 은닉마르코프모델, 히트맵, 디퍼런스 히트맵을 기반으로 훈련 템플레이트(template)를 개발하였다.
방법: 본 연구에서는 2017년 9월부터 2018년 4월까지 국립공주병원에 방문하거나 입원하는 조현병 환자와 충남대학교를 방문하는 건강한 대상자를 모집하였다. 총 83명의 환자군과 85명의 대조군에게 대상자가 얼굴표정인식 실험을 진행하는 동안 안구추적장치를 이용하여 안구운동을 기록하고 분석하였다. 실험에서 대상자들은 96개의 정서자극 사진들(무표정 16장, 행복 16장, 슬픔 16장, 분노 16장, 공포 16장, 혐오 16장)을 자유롭게 응시하고 그들이 주관적으로 해당 사진에 상응하는 얼굴정서를 선택하도록 하였다. 안구추적 자료를 분석하기 위해서 본 연구에서는 얼굴 정서 사진들에 세 가지 관심영역(눈, 코, 입)을 설정하였고 고정점의 수, 고정시간, 첫고정시간, 고정시간 비율, 재고정시간 비율 등의 스캔패스 데이터를 추출하였다. 이후에 은닉마르코프 모델을 이용하여 개개인의 안구운동 패턴을 모델링하여 얼굴 표정인식 동안의 참가자들의 스캔패스를 통합하였다.
결과: 개개의 참가자들의 은닉마르코프 모델은 고유의 스캔패턴을 기반으로 군집화되었다. 군집화된 참가자들의 안구운동 패턴은 은닉마르코프 모델의 세팅에 따라 2개의 그룹으로 분류되었다. 이후에 우리는 은닉마르코프 모델 을 기반으로 가중치를 둔 알고리듬을 이용하여 환자군과 대조군의 히트맵과 두 군의 차이를 반영한 디퍼런스 히트맵을 확인하였다. 마지막으로 은닉마르코프모델과 디퍼런스 히트맵을 조합하여 새로운 얼굴표정인식 능력 향상 훈련 템플레이트를 개발하였다.
결론: 본 연구에서는 얼굴표정인식 동안 조현병 환자와 대조군 사이의 분명한 시선패턴의 차이를 확인하였다. 이러한 차이를 해석하고 조합함으로써 새로운 얼굴표정인식 능력 향상 훈련 템플레이트를 개발하였다.
분석정보
서지정보 내보내기(Export)
닫기소장기관 정보
닫기권호소장정보
닫기오류접수
닫기오류 접수 확인
닫기음성서비스 신청
닫기음성서비스 신청 확인
닫기이용약관
닫기학술연구정보서비스 이용약관 (2017년 1월 1일 ~ 현재 적용)
학술연구정보서비스(이하 RISS)는 정보주체의 자유와 권리 보호를 위해 「개인정보 보호법」 및 관계 법령이 정한 바를 준수하여, 적법하게 개인정보를 처리하고 안전하게 관리하고 있습니다. 이에 「개인정보 보호법」 제30조에 따라 정보주체에게 개인정보 처리에 관한 절차 및 기준을 안내하고, 이와 관련한 고충을 신속하고 원활하게 처리할 수 있도록 하기 위하여 다음과 같이 개인정보 처리방침을 수립·공개합니다.
주요 개인정보 처리 표시(라벨링)
목 차
3년
또는 회원탈퇴시까지5년
(「전자상거래 등에서의 소비자보호에 관한3년
(「전자상거래 등에서의 소비자보호에 관한2년
이상(개인정보보호위원회 : 개인정보의 안전성 확보조치 기준)개인정보파일의 명칭 | 운영근거 / 처리목적 | 개인정보파일에 기록되는 개인정보의 항목 | 보유기간 | |
---|---|---|---|---|
학술연구정보서비스 이용자 가입정보 파일 | 한국교육학술정보원법 | 필수 | ID, 비밀번호, 성명, 생년월일, 신분(직업구분), 이메일, 소속분야, 웹진메일 수신동의 여부 | 3년 또는 탈퇴시 |
선택 | 소속기관명, 소속도서관명, 학과/부서명, 학번/직원번호, 휴대전화, 주소 |
구분 | 담당자 | 연락처 |
---|---|---|
KERIS 개인정보 보호책임자 | 정보보호본부 김태우 | - 이메일 : lsy@keris.or.kr - 전화번호 : 053-714-0439 - 팩스번호 : 053-714-0195 |
KERIS 개인정보 보호담당자 | 개인정보보호부 이상엽 | |
RISS 개인정보 보호책임자 | 대학학술본부 장금연 | - 이메일 : giltizen@keris.or.kr - 전화번호 : 053-714-0149 - 팩스번호 : 053-714-0194 |
RISS 개인정보 보호담당자 | 학술진흥부 길원진 |
자동로그아웃 안내
닫기인증오류 안내
닫기귀하께서는 휴면계정 전환 후 1년동안 회원정보 수집 및 이용에 대한
재동의를 하지 않으신 관계로 개인정보가 삭제되었습니다.
(참조 : RISS 이용약관 및 개인정보처리방침)
신규회원으로 가입하여 이용 부탁 드리며, 추가 문의는 고객센터로 연락 바랍니다.
- 기존 아이디 재사용 불가
휴면계정 안내
RISS는 [표준개인정보 보호지침]에 따라 2년을 주기로 개인정보 수집·이용에 관하여 (재)동의를 받고 있으며, (재)동의를 하지 않을 경우, 휴면계정으로 전환됩니다.
(※ 휴면계정은 원문이용 및 복사/대출 서비스를 이용할 수 없습니다.)
휴면계정으로 전환된 후 1년간 회원정보 수집·이용에 대한 재동의를 하지 않을 경우, RISS에서 자동탈퇴 및 개인정보가 삭제처리 됩니다.
고객센터 1599-3122
ARS번호+1번(회원가입 및 정보수정)