Exploring Question Answering Tasks with the Language Model, BERT = BERT 언어 모델을 이용한 질의 응답 문제 탐구
저자
발행사항
서울 : 서울대학교 대학원, 2021
학위논문사항
학위논문(석사)-- 서울대학교 대학원 : 지능정보융합학과 2021. 2
발행연도
2021
작성언어
영어
주제어
DDC
006.3
발행국(도시)
서울
형태사항
viii, 60 ; 26 cm
일반주기명
지도교수: 곽노준
UCI식별코드
I804:11032-000000164295
DOI식별코드
소장기관
Question Answering (QA) is an automated approach of retrieving the correct answer given a question and documents, which provides a foundation to many other Natural Language Processing (NLP) tasks, such as Natural Language Generation, Natural Language Inference, and Named Entity Recognition. QA in English language datasets has brought great improvements. However, QA systems have not been thoroughly explored in foreign languages or in multi-modality domains, such as in Visual Question Answering and Video Question Answering (Video QA). Applying language models, such as BERT \cite{devlin2018bert} and XLNET \cite{yang2019xlnet}, to foreign language QA tasks requires an understanding of characteristics in the foreign language. Video QA requires a fine-grained understanding of both video and language modalities to answer a given question.
In this work, we mainly demonstrate a BERT-based question answering model on a Korean QA dataset. This paper explores the dataset, KorQuAD 2.0 \cite{kim2020korquad}, with the BERT-base-multilingual model released by Google and the Larva-base-cased model released by Naver. We introduce an additional tokenizer to pre-trained models and adopt a negative sampling method during the fine-tuning stage to balance the ratio of positive and negative data samples. In addition, a different size of the window stride is used during the inference to improve the latency. As a result, we achieve 58.21 of exact match (EM) and 77.33 of F1 scores with 1,629 ms inference speed per a query, which largely outperforms the previous baseline of 30.24 EM and 45.96 F1 scores with a 13,484 ms latency speed. Furthermore, we extend the BERT-based QA model to tackle a highly competitive multiple-choice Video QA benchmark dataset, TVQA \cite{lei2018tvqa}.
질의 응답(Question Answering)은 주어진 질의에 대한 정답을 문백에서 자동적으로 추출해내는 기술로 자연어 처리 (Natural Language Processing)의 핵심적인 기술의 하나이며, 자연어 생성, 자연어 추론, 개체명 인식 등의다른 자연어 처리 기술들의 기술적 토대가 된다. 영어로 구성된 SQuAD \cite{rajpurkar2016squad}와 Natural Questions \cite{kwiatkowski2019natural}와 같은 데이터 셋들은 영어에서의 질의 응답 기술에 큰 발전을 가져왔다. 하지만 영어이외의 언어에서의, 그리고 언어 이외의 이미지 질의 응답 혹은 비디오 질의 응답 (Video QA)과 같이 멀티 모달 환경에서의 질의 응답의 문제는 심층적인 탐구를 필요로한다. 기존의 BERT \cite{devlin2018bert} 혹은 XLNET \cite{yang2019xlnet}과 같은 언어 모델을 영어 이외의 언어에 적용하기위해서는 해당 언어의 특성에 대한 이해가 필요하다. 또한 비디오 질의 응답의 경우, 비디오와 자연어 두 가지 모달리티에 대한 심층적인 이해가 필요하다.
이에 본 연구에서는 우리는 BERT 언어 모델을 기반으로 한 한국어에서의 질의 응답 모델을 제안한다. 해당 논문은 Google에서 공개한 BERT-base-multilingual 모델 \cite{devlin2018bert}과, 네이버에서 한국어 관련 대용량 말뭉치에 사전학습하여 공개한 Larva-base-cased 모델 \cite{claf}을 사용하여 한국어 질의 응답 데이터 셋, KorQuAD 2.0에서의 기계 독해 (Machine Reading Comprehension)를 진행한다. 모델 학습 시, 추가적인 형태소 분석기와 네거티브 샘플링 (negative sampling)을 사용하였으며, 추가적으로 추론 시, 학습 때와는 다른 Stride Window 크기를 사용하여 추론 속도 (latency)를 높일 수 있도록 하였다. 그 결과, 기존의 베이스라인이 되는 모델의 성능이었던 EM 점수 30.24점, F1 점수 45.96점, 13,484 ms의 추론 속도 EM 점수 58.21점, F1 점수 77.33 점, 1,629 ms의 추론 속도로 높일 수 있었다. 나아가, 해당 논문에서는 BERT를 기반으로 하는 질의 응답 모델을 비디오 질의 응답 데이터 셋, TVQA \cite{lei2018tvqa}에 적용할 수 있도록 확장하는 방식을 함께 소개한다.
분석정보
서지정보 내보내기(Export)
닫기소장기관 정보
닫기권호소장정보
닫기오류접수
닫기오류 접수 확인
닫기음성서비스 신청
닫기음성서비스 신청 확인
닫기이용약관
닫기학술연구정보서비스 이용약관 (2017년 1월 1일 ~ 현재 적용)
학술연구정보서비스(이하 RISS)는 정보주체의 자유와 권리 보호를 위해 「개인정보 보호법」 및 관계 법령이 정한 바를 준수하여, 적법하게 개인정보를 처리하고 안전하게 관리하고 있습니다. 이에 「개인정보 보호법」 제30조에 따라 정보주체에게 개인정보 처리에 관한 절차 및 기준을 안내하고, 이와 관련한 고충을 신속하고 원활하게 처리할 수 있도록 하기 위하여 다음과 같이 개인정보 처리방침을 수립·공개합니다.
주요 개인정보 처리 표시(라벨링)
목 차
3년
또는 회원탈퇴시까지5년
(「전자상거래 등에서의 소비자보호에 관한3년
(「전자상거래 등에서의 소비자보호에 관한2년
이상(개인정보보호위원회 : 개인정보의 안전성 확보조치 기준)개인정보파일의 명칭 | 운영근거 / 처리목적 | 개인정보파일에 기록되는 개인정보의 항목 | 보유기간 | |
---|---|---|---|---|
학술연구정보서비스 이용자 가입정보 파일 | 한국교육학술정보원법 | 필수 | ID, 비밀번호, 성명, 생년월일, 신분(직업구분), 이메일, 소속분야, 웹진메일 수신동의 여부 | 3년 또는 탈퇴시 |
선택 | 소속기관명, 소속도서관명, 학과/부서명, 학번/직원번호, 휴대전화, 주소 |
구분 | 담당자 | 연락처 |
---|---|---|
KERIS 개인정보 보호책임자 | 정보보호본부 김태우 | - 이메일 : lsy@keris.or.kr - 전화번호 : 053-714-0439 - 팩스번호 : 053-714-0195 |
KERIS 개인정보 보호담당자 | 개인정보보호부 이상엽 | |
RISS 개인정보 보호책임자 | 대학학술본부 장금연 | - 이메일 : giltizen@keris.or.kr - 전화번호 : 053-714-0149 - 팩스번호 : 053-714-0194 |
RISS 개인정보 보호담당자 | 학술진흥부 길원진 |
자동로그아웃 안내
닫기인증오류 안내
닫기귀하께서는 휴면계정 전환 후 1년동안 회원정보 수집 및 이용에 대한
재동의를 하지 않으신 관계로 개인정보가 삭제되었습니다.
(참조 : RISS 이용약관 및 개인정보처리방침)
신규회원으로 가입하여 이용 부탁 드리며, 추가 문의는 고객센터로 연락 바랍니다.
- 기존 아이디 재사용 불가
휴면계정 안내
RISS는 [표준개인정보 보호지침]에 따라 2년을 주기로 개인정보 수집·이용에 관하여 (재)동의를 받고 있으며, (재)동의를 하지 않을 경우, 휴면계정으로 전환됩니다.
(※ 휴면계정은 원문이용 및 복사/대출 서비스를 이용할 수 없습니다.)
휴면계정으로 전환된 후 1년간 회원정보 수집·이용에 대한 재동의를 하지 않을 경우, RISS에서 자동탈퇴 및 개인정보가 삭제처리 됩니다.
고객센터 1599-3122
ARS번호+1번(회원가입 및 정보수정)