End-to-end multimodal fusion-conformerBERT model for emotion recognition
저자
발행사항
Seoul : Graduate School, Korea University, 2022
학위논문사항
학위논문(박사)-- 고려대학교 대학원: 전기전자공학과 2022. 2
발행연도
2022
작성언어
영어
주제어
발행국(도시)
서울
기타서명
감정인식을 위한 End-to-end 기반 멀티모달 fusion-conformerBERT 모델
형태사항
xvii, 114장 : 천연색삽화, 도표 ; 26 cm
일반주기명
지도교수: 고한석
부록수록
참고문헌: 장 94-105
UCI식별코드
I804:11009-000000257631
DOI식별코드
소장기관
Emotion recognition is a communication method that helps understand humans and build empathy and intimacy. An intuitive method to achieve natural, intelligent human-computer interaction is the intellectual ability of machines to understand and empathize with human emotional states. However, the emotional state of the speaker is very complex and changes dynamically depending on contextual language expression or nonverbal contexts such as speech and facial expressions. Although most previous studies performed emotion recognition using a unimodal, it is still difficult to understand human emotions. This dissertation aims to improve the performance of emotion recognition through multimodal fusion to integrate all audio, visual and text input for human-computer interaction. Before describing the proposed method, previously studied approaches to emotion recognition and research issues are reviewed. Then, the nonverbal audio and visual build a unimodal by comparing handcraft features and deep learning features. Nonverbal expressions are important clues to understanding emotions, and these sounds and facial expressions contain more detailed information than abstract words. Therefore, extracting differentiated audio and visual features to improve multimodal performance is one of the main tasks of emotion recognition research. This dissertation conducts comparative experiments by selecting handcraft features and deep learning features used in previous studies. Convolution-augmented Transformer (Conformer) encoder allows audio and visual unimodal to efficiently capture both local feature and global feature contextual information, which aids in emotion recognition. Next, a novel end-to-end multimodal method for emotion recognition is proposed. Understanding complex human emotions requires modeling fusion approaches for intra-modal interactions across text, visual and audio modalities. However, each modality contains positive and negative information. For example, in a video, there are frames in which emotion is not prominent. Negative information corresponds to noise between each modality, and such information should be blocked. This dissertation proposes a Positive Sample Filter Fusion for Cross-modal (PSF2C) module to construct all pairwise similarity maps between each modality and to obtain paired features with high similarity. In addition, the proposed model has a Temporal Weight Fusion (TWF) module to give temporal weights to better utilize temporal correlations. Especially, text modality effectively distills knowledge using pre-trained Bidirectional Encoder Representation from Transformer (BERT) with self-supervised learning. Ablation analysis of the model proposed in this dissertation shows that audio and visual components contribute significantly to the recognition results than text using a single BERT. In addition, the performance shows that the fusion process of the PSF2C module that aggregates positive information and the TWF module that assigns time weights is effective. These positive modalities of audio, visual, and text suggest that they contain highly complementary information for sentiment analysis. The method in this dissertation achieves state-of-the-art performance on CMU Multimodal Opinion Sentiment Intensity (CMU-MOSI) and Interactive Emotional Dyadic Motion Capture (IEMOCAP) datasets.
더보기감정 인식은 인간을 이해하고 공감과 친밀감을 형성하는 데 도움이 되는 의사소통 방법이다. 로봇은 자연스러운 인간의 감정 상태를 이해하기 위해 human-to-machine 상호작용에 대한 지능적인 직관 능력을 습득해야 한다. 그러나, 문맥적 언어 표현과 비언어적 표현에 따라 동적 변화로 인해 화자의 감정 상태는 매우 복잡하다. 대부분 기존 감정 인식 연구는 단일 modality만을 고려했기 때문에 다차원의 인간의 감정을 이해하는 것은 여전히 어려운 일이다. 본 논문은 감정 인식을 향상시키기 위해 오디오, 시각, 텍스트를 적용하여 multimodal 융합 시스템 구현을 목표로 한다. 또한, multimodal 성능을 향상시키기 위해 차별화된 시청각 특징을 추출하는 것은 감정 인식 연구의 주요 과제 중 하나이며 비언어적 표현인 시청각 신호는 감정을 이해하는 데 중요한 단서이다. 추가적으로, 시청각 정보는 단어 조합으로 구성된 텍스트 정보 보다 더 자세한 정보를 담고 있다. 따라서, 효과적인 감정 인식 비언어적 특징을 추출하기 위해 먼저 시청각의 대표적인 handcraft 특징과 deep learning 특징을 비교 실험을 진행한다. 특징 비교 실험은 글로벌 특징과 로컬 특징을 캡처할 수 있는 Convolution-augmented Transformer (Conformer) 인코더를 제안하여 다른 시퀀스 모델인 Recurrent Neural Networks (RNNs)과 Transformer로 비교 분석한다. 마지막으로, 본 논문에서는 Conformer 모듈에서 추출한 시청각 표현과 Bidirectional Encoder Representation from Transformer (BERT) 모델의 텍스트 표현을 결합한 End-to-End 기반의 새로운 Fusion-ConformerBERT를 제안한다. 또한, 각 modality의 representation 정보는 훈련에 영향을 미치는 프레임과 특징 정보가 존재한다. 이때, 프레임에서 강인한 특징은 positive 정보, 그렇지 않은 약한 특징은 negative 정보로 가정한다. 이러한 negative 정보는 감정 인식 훈련 간의 노이즈에 해당하며 negative 영향을 가진 정보는 차단해야 한다. 따라서, Fusion-ConformerBERT는 Positive Sample Filter Fusion for Cross-modal (PSF2C) 모듈을 제안하여 각 modality 간의 모든 쌍 similarity map을 구성하고 유사성이 낮은 정보인 negative는 차단하고 높은 쌍의 특징인 positive 정보를 필터링한다. 또한, Temporal Weight Fusion (TWF) 모듈을 제안하여 시간적 상관관계에 따른 시간 가중치를 부여한다. Fusion-ConformerBERT에 제안된 텍스트 모델은 Self-supervised learning으로 사전 훈련된 BERT 모델을 사용함으로써 소규모 감정 데이터에 대한 overfitting 문제를 해결한다. 추가적으로, 본 논문의 다양한 ablation 분석을 진행하며 modality 간의 융합에 대한 영향을 비교한다. 나아가, 제안된 Fusion-ConformerBERT에서 positive 정보를 집계하는 PSF2C와 시간 가중치를 부여하는 TWF 모듈의 융합 프로세스가 효과적인 것으로 성능을 보여준다. 제안된 모델에서 오디오, 시각적, 텍스트의 이러한 긍정적인 modality은 감성 분석을 위한 매우 보완적인 정보를 포함하고 있음을 시사한다. 실험은 CMU Multimodal Opinion Sentiment Intensity (CMU-MOSI)와 Interactive Emotional Dyadic Motion Capture (IMEOCAP) 데이터 셋을 사용하며 제안된 Fusion-ConformerBERT은 실험에서 최신 의 성능을 달성한다.
더보기분석정보
서지정보 내보내기(Export)
닫기소장기관 정보
닫기권호소장정보
닫기오류접수
닫기오류 접수 확인
닫기음성서비스 신청
닫기음성서비스 신청 확인
닫기이용약관
닫기학술연구정보서비스 이용약관 (2017년 1월 1일 ~ 현재 적용)
학술연구정보서비스(이하 RISS)는 정보주체의 자유와 권리 보호를 위해 「개인정보 보호법」 및 관계 법령이 정한 바를 준수하여, 적법하게 개인정보를 처리하고 안전하게 관리하고 있습니다. 이에 「개인정보 보호법」 제30조에 따라 정보주체에게 개인정보 처리에 관한 절차 및 기준을 안내하고, 이와 관련한 고충을 신속하고 원활하게 처리할 수 있도록 하기 위하여 다음과 같이 개인정보 처리방침을 수립·공개합니다.
주요 개인정보 처리 표시(라벨링)
목 차
3년
또는 회원탈퇴시까지5년
(「전자상거래 등에서의 소비자보호에 관한3년
(「전자상거래 등에서의 소비자보호에 관한2년
이상(개인정보보호위원회 : 개인정보의 안전성 확보조치 기준)개인정보파일의 명칭 | 운영근거 / 처리목적 | 개인정보파일에 기록되는 개인정보의 항목 | 보유기간 | |
---|---|---|---|---|
학술연구정보서비스 이용자 가입정보 파일 | 한국교육학술정보원법 | 필수 | ID, 비밀번호, 성명, 생년월일, 신분(직업구분), 이메일, 소속분야, 웹진메일 수신동의 여부 | 3년 또는 탈퇴시 |
선택 | 소속기관명, 소속도서관명, 학과/부서명, 학번/직원번호, 휴대전화, 주소 |
구분 | 담당자 | 연락처 |
---|---|---|
KERIS 개인정보 보호책임자 | 정보보호본부 김태우 | - 이메일 : lsy@keris.or.kr - 전화번호 : 053-714-0439 - 팩스번호 : 053-714-0195 |
KERIS 개인정보 보호담당자 | 개인정보보호부 이상엽 | |
RISS 개인정보 보호책임자 | 대학학술본부 장금연 | - 이메일 : giltizen@keris.or.kr - 전화번호 : 053-714-0149 - 팩스번호 : 053-714-0194 |
RISS 개인정보 보호담당자 | 학술진흥부 길원진 |
자동로그아웃 안내
닫기인증오류 안내
닫기귀하께서는 휴면계정 전환 후 1년동안 회원정보 수집 및 이용에 대한
재동의를 하지 않으신 관계로 개인정보가 삭제되었습니다.
(참조 : RISS 이용약관 및 개인정보처리방침)
신규회원으로 가입하여 이용 부탁 드리며, 추가 문의는 고객센터로 연락 바랍니다.
- 기존 아이디 재사용 불가
휴면계정 안내
RISS는 [표준개인정보 보호지침]에 따라 2년을 주기로 개인정보 수집·이용에 관하여 (재)동의를 받고 있으며, (재)동의를 하지 않을 경우, 휴면계정으로 전환됩니다.
(※ 휴면계정은 원문이용 및 복사/대출 서비스를 이용할 수 없습니다.)
휴면계정으로 전환된 후 1년간 회원정보 수집·이용에 대한 재동의를 하지 않을 경우, RISS에서 자동탈퇴 및 개인정보가 삭제처리 됩니다.
고객센터 1599-3122
ARS번호+1번(회원가입 및 정보수정)