Developing zero anaphora resolution system based on deep learning technology
저자
발행사항
[Seoul] : Graduate School, Yonsei University, 2020
학위논문사항
학위논문(박사) -- Graduate School, Yonsei University Department of Computer Science 2020.8
발행연도
2020
작성언어
영어
주제어
발행국(도시)
서울
기타서명
딥러닝 기술 기반의 무형대용어 해결 시스템 개발
형태사항
viii, 91, ii p. : 삽화 ; 26 cm
일반주기명
지도교수: Dong Yul Ra
UCI식별코드
I804:11046-000000524308
소장기관
BERT is a general language representation model that enables systems to utilize deep bidirectional contextual information in natural language texts. Good word and phrase embeddings, when used as the underlying input representation, have been shown to boost the performance in language tasks. This is what is demonstrated by BERT. BERT exploits attention mechanism extensively based upon the sequence transduction model Transformer. BERT is one of the most advanced and complex models that makes use of the most recent state-of-the-art techniques in deep learning.
It is necessary to achieve high performance in the task of zero anaphora resolution (ZAR) for complete understanding of texts in Korean, Japanese, Chinese, etc. Influenced by success of deep learning, models based on this technology began to be introduced recently in building ZAR systems. However, the objective of building a high quality ZAR system is far from being achieved even by using these models.
To overcome an obstacle in improving ZAR performance, we have proposed to exploit BERT in designing a new model for ZAR. This approach has not been taken by others in developing a ZAR system yet. Specifically, we have chosen to use the fine-tuning approach in utilizing a BERT made available after pre-training. To demonstrate the advantages of our proposed approach by performance comparison, we built ZAR systems based on deep learning models without using BERT. We also implemented the ZAR models suggested by other researchers that make use of deep learning techniques. The performance comparisons of our proposed model with these other models have revealed that our proposed model is superior to those of others.
We also experimented with various neural network architectures added on top of BERT to develop our ZAR system. It was observed that adding a complex architecture is more advantageous in improving the performance. This is a new finding related to the use of BERT for language tasks. It was also found that a BERT pre-trained solely with Korean corpus is superior to a multi-lingual BERT.
We have sought the end-to-end learning paradigm by disallowing any use of hand-crafted features or dependency-analysis features. Experimental results show that the BERT-based models we propose can result in large performance improvement in ZAR over other deep learning models introduced by other researchers.
BERT는 시스템이 자연어 텍스트에서 양방향 양방향 컨텍스트 정보를 활용
할 수 있게 하는 일반 언어 표현 모델입니다. 좋은 단어와 구, 절에 대한 임-
베딩을 기본 입력 표현으로 사용할 때 언어 작업의 성능을 향상시키는 것으
로 나타났습니다. 이것이 BERT가 보여주는 것입니다. BERT는 시퀀스 변환 모
델 Transformer를 기반으로 광범위하게 어텐션 메커니즘을 활용합니다. BERT
는 최신 딥러닝 기술을 활용하는 가장 발전된 복잡한 모델 중 하나입니다.
한국어, 일본어, 중국어 등의 문장을 완전히 이해하기 위해서는 ZAR (Zero
Anaphora Resolution) 작업에서 높은 성능을 달성해야 합니다. 딥러닝의 성공에
영향을 받아 이 기술을 기반으로 한 모델들이 최근 ZAR 시스템에 도입되기
시작했습니다. ZAR 시스템. 그러나 고품질 ZAR 시스템 구축은 이러한 모델을
사용하더라도 달성 할 수 없습니다.
우리는 ZAR 성능 향상의 장애를 극복하기 위해 ZAR을 위한 새로운 모델
을 설계 할 때 BERT를 활용할 것을 제안했습니다. 이 접근법은 아직 다른
ZAR 시스템 개발에서 채택되지 않았습니다. 특히, 우리는 사전 훈련 후 제공
되는 BERT를 활용하기 위해 미세 조정 방법을 사용하기로 결정했습니다. 성
능 비교를 통한 제안 된 접근 방식의 장점을 보여주기 위해 BERT를 사용하
지 않은 딥러닝 모델을 기반으로 ZAR 시스템을 구축했습니다. 또한 딥러닝
기술을 사용하는 다른 연구자들이 제안한 ZAR 모델도 구현했습니다. 제안 된
모델과 이러한 다른 모델의 성능을 비교 한 결과 제안 된 모델이 다른 모델
보다 우수합니다.
또한 ZAR 시스템을 개발하기 위해 BERT 위에 다양한 신경망 아키텍처를
추가한 실험을 했습니다. 복잡한 아키텍처를 추가하는 것이 성능 향상에 더
유리하다는 것이 관찰되었습니다. 이것은 언어 작업에 BERT를 사용하는 것과
관련된 새로운 발견입니다. 또한 한국어 말뭉치로만 사전 훈련 된 BERT가 다
국어 BERT보다 우수하다는 것도 발견되었습니다.
우리는 수작업으로 만들어진 자질정보나 의존관계 분석 결과를 사용하지
않는 end-to-end 학습 패러다임을 추구했습니다. 실험 결과에 따르면 우리가
제안한 BERT 기반 모델이 다른 연구에서 소개한 딥러닝 모델보다 ZAR의 성
능을 크게 향상시킬 수 있음을 보여줍니다.
분석정보
서지정보 내보내기(Export)
닫기소장기관 정보
닫기권호소장정보
닫기오류접수
닫기오류 접수 확인
닫기음성서비스 신청
닫기음성서비스 신청 확인
닫기이용약관
닫기학술연구정보서비스 이용약관 (2017년 1월 1일 ~ 현재 적용)
학술연구정보서비스(이하 RISS)는 정보주체의 자유와 권리 보호를 위해 「개인정보 보호법」 및 관계 법령이 정한 바를 준수하여, 적법하게 개인정보를 처리하고 안전하게 관리하고 있습니다. 이에 「개인정보 보호법」 제30조에 따라 정보주체에게 개인정보 처리에 관한 절차 및 기준을 안내하고, 이와 관련한 고충을 신속하고 원활하게 처리할 수 있도록 하기 위하여 다음과 같이 개인정보 처리방침을 수립·공개합니다.
주요 개인정보 처리 표시(라벨링)
목 차
3년
또는 회원탈퇴시까지5년
(「전자상거래 등에서의 소비자보호에 관한3년
(「전자상거래 등에서의 소비자보호에 관한2년
이상(개인정보보호위원회 : 개인정보의 안전성 확보조치 기준)개인정보파일의 명칭 | 운영근거 / 처리목적 | 개인정보파일에 기록되는 개인정보의 항목 | 보유기간 | |
---|---|---|---|---|
학술연구정보서비스 이용자 가입정보 파일 | 한국교육학술정보원법 | 필수 | ID, 비밀번호, 성명, 생년월일, 신분(직업구분), 이메일, 소속분야, 웹진메일 수신동의 여부 | 3년 또는 탈퇴시 |
선택 | 소속기관명, 소속도서관명, 학과/부서명, 학번/직원번호, 휴대전화, 주소 |
구분 | 담당자 | 연락처 |
---|---|---|
KERIS 개인정보 보호책임자 | 정보보호본부 김태우 | - 이메일 : lsy@keris.or.kr - 전화번호 : 053-714-0439 - 팩스번호 : 053-714-0195 |
KERIS 개인정보 보호담당자 | 개인정보보호부 이상엽 | |
RISS 개인정보 보호책임자 | 대학학술본부 장금연 | - 이메일 : giltizen@keris.or.kr - 전화번호 : 053-714-0149 - 팩스번호 : 053-714-0194 |
RISS 개인정보 보호담당자 | 학술진흥부 길원진 |
자동로그아웃 안내
닫기인증오류 안내
닫기귀하께서는 휴면계정 전환 후 1년동안 회원정보 수집 및 이용에 대한
재동의를 하지 않으신 관계로 개인정보가 삭제되었습니다.
(참조 : RISS 이용약관 및 개인정보처리방침)
신규회원으로 가입하여 이용 부탁 드리며, 추가 문의는 고객센터로 연락 바랍니다.
- 기존 아이디 재사용 불가
휴면계정 안내
RISS는 [표준개인정보 보호지침]에 따라 2년을 주기로 개인정보 수집·이용에 관하여 (재)동의를 받고 있으며, (재)동의를 하지 않을 경우, 휴면계정으로 전환됩니다.
(※ 휴면계정은 원문이용 및 복사/대출 서비스를 이용할 수 없습니다.)
휴면계정으로 전환된 후 1년간 회원정보 수집·이용에 대한 재동의를 하지 않을 경우, RISS에서 자동탈퇴 및 개인정보가 삭제처리 됩니다.
고객센터 1599-3122
ARS번호+1번(회원가입 및 정보수정)