Temporal Hierarchical Recurrent Neural Networks with Pre-trained Transformers for Abstractive Summarization and Text Classification : 텍스트 요약 및 분류를 위한 사전학습된 인코더 기반 시간계층적 반복 뉴럴 네트워크
저자
발행사항
대구 : 경북대학교 대학원, 2020
학위논문사항
발행연도
2020
작성언어
영어
주제어
DDC
621.3821 판사항(23)
발행국(도시)
대한민국
형태사항
vi, 129 p. : ill. ; 26 cm.
일반주기명
Thesis Advisor: 장길진, 이민호.
Includes bibliographical references.
UCI식별코드
I804:22001-000000097918
소장기관
Text summarization and text classification, using deep learning techniques, have become a research challenge in natural language processing in recent times. Most of the existing deep learning models for summarization and classification face difficulties when the length of the input text increases. Most models work well on shorter text inputs; however, their performance degrades with the increase in the input length. In order to tackle the problem of abstractive summarization and classification of long multi-sentence texts, it is critical to construct an efficient model, which can learn and represent multiple sentences better. In this thesis, a temporal hierarchical pointer generator network that can efficiently represent long sequences of text consisting of multiple sentences or paragraphs with a deep structure is introduced. The work demonstrates that how a multilayer gated recurrent neural network organizes itself with the help of an adaptive timescale in order to represent the compositions better. The temporal hierarchical network is implemented with a multiple timescale architecture where the timescale of each layer is also learned during the training process through error backpropagation through time. The multiple timescales gated recurrent unit (MTGRU) network is proposed as a solution for abstractive summarization of long texts in combination with the pointer generator network. The proposed model is evaluated using an Introduction-Abstract summarization dataset from scientific articles and the CNN/Daily Mail summarization benchmark dataset.
Furthermore, inspired by the success of the MTGRU model, another model that is suitable for text classification and abstractive summarization is introduced. The hierarchical and lateral multiple timescales gated recurrent units (HL-MTGRU) is proposed, in combination with pre-trained Transformers to address the long text classification problem and abstractive summarization. This model introduces recurrent features into pre-trained transformers with the additional MTGRU recurrence encoder without making any changes to the pre-trained components, making the architecture modularized and thus enabling an easy integration to variations of pre-trained models with different training objectives. HL-MTGRU can represent multiple temporal scale dependencies by combining the slow and fast units of MTGRU. The proposed model can effectively classify long multi-sentence texts as well as perform summarization efficiently. It is also shown that the HL-MTGRU structure helps the model to prevent degradation of performance on longer text inputs. The proposed network with the help of the latest pre-trained Transformers achieves the state-of-the-art performance on various text classification benchmark datasets as well as on the summarization benchmark.
딥러닝 기술을 이용한 텍스트 분류는 최근 자연어 처리에서 주요 연구 과제로 떠오르고 있다. 요약과 분류를 위한 기존의 딥러닝 모델 대부분은 입력 텍스트의 길이가 증가할 때 어려움에 직면한다. 대부분의 모델은 입력 텍스트 길이가 짧은 경우에서는 잘 작동하지만 입력의 길이가 증가함에 따라 점차 성능이 저하된다. 긴 다중 문장 텍스트의 추상적 요약과 분류 문제를 다루기 위해서는 다중 문장을 더욱 잘 학습하고 표현할 수 있는 효율적인 모델을 구성하는 것이 중요하다. 본 논문에서는 다수의 문장이나 문단으로 구성된 텍스트의 긴 시퀀스를 효율적으로 나타낼 수 있는 깊은 구조의 시간 계층적 포인터 생성기 네트워크가 소개된다. 이 연구는 다층 게이트 반복 신경망이 적응형 시간 척도에 따라 어떻게 구성요소들을 더 잘 표현하는지 보여준다. 시간 계층적 네트워크는 시간에 대한 오류 역전파(backpropagation)를 통해 학습 과정 동안 각 계층별 시간 척도까지 학습되는 다중 시간 척도 아키텍처로 구현된다. 또한 포인터 발생기 네트워크와 결합한 다중 시간 척도 게이트 반복 단위 (MTGRU) 네트워크는 긴 텍스트의 추상적 요약 솔루션으로서 제안된다. 제안된 모델은 과학 논문의 introduction-abstract 요약 데이터 셋과 CNN/Daily 메일 요약 벤치마크 데이터 셋을 이용해 평가되었다.
나아가 MTGRU 모델의 성공에 기반하여 텍스트 분류와 추상적 요약에 적합한 다른 모델을 소개한다. 긴 텍스트 분류 문제와 추상적 요약을 해결하기 위해 사전 훈련된 트랜스포머와 결합한 계층적 및 측면적 다중 시간 척도 게이트 반복 단위 (HL-MTGRU)를 제안한다. 이 모델은 전체적인 성능 향상을 위해 어떠한 사전 훈련된 트랜스포머와도 통합될 수 있다. HL-MTGRU는 느리고 빠른 MTGRU의 각 단위와 결합하여 다중 시간 척도 의존성을 나타낼 수 있다. 제안된 모델은 효과적으로 다중 장문 분류를 할 뿐만 아니라 요약에서도 효율적인 성능을 보인다. 또한 HL-MTGRU 구조는 더 긴 텍스트 입력에 대한 성능 저하를 방지하도록 돕는 것으로 나타났다. 제안된 네트워크는 최신의 사전 학습된 트랜스포머의 도움을 받아 다양한 텍스트 분류 벤치마크 데이터 셋 뿐만 아니라 요약 벤치마크에 대해서도 최고의 성능을 얻었다.
분석정보
서지정보 내보내기(Export)
닫기소장기관 정보
닫기권호소장정보
닫기오류접수
닫기오류 접수 확인
닫기음성서비스 신청
닫기음성서비스 신청 확인
닫기이용약관
닫기학술연구정보서비스 이용약관 (2017년 1월 1일 ~ 현재 적용)
학술연구정보서비스(이하 RISS)는 정보주체의 자유와 권리 보호를 위해 「개인정보 보호법」 및 관계 법령이 정한 바를 준수하여, 적법하게 개인정보를 처리하고 안전하게 관리하고 있습니다. 이에 「개인정보 보호법」 제30조에 따라 정보주체에게 개인정보 처리에 관한 절차 및 기준을 안내하고, 이와 관련한 고충을 신속하고 원활하게 처리할 수 있도록 하기 위하여 다음과 같이 개인정보 처리방침을 수립·공개합니다.
주요 개인정보 처리 표시(라벨링)
목 차
3년
또는 회원탈퇴시까지5년
(「전자상거래 등에서의 소비자보호에 관한3년
(「전자상거래 등에서의 소비자보호에 관한2년
이상(개인정보보호위원회 : 개인정보의 안전성 확보조치 기준)개인정보파일의 명칭 | 운영근거 / 처리목적 | 개인정보파일에 기록되는 개인정보의 항목 | 보유기간 | |
---|---|---|---|---|
학술연구정보서비스 이용자 가입정보 파일 | 한국교육학술정보원법 | 필수 | ID, 비밀번호, 성명, 생년월일, 신분(직업구분), 이메일, 소속분야, 웹진메일 수신동의 여부 | 3년 또는 탈퇴시 |
선택 | 소속기관명, 소속도서관명, 학과/부서명, 학번/직원번호, 휴대전화, 주소 |
구분 | 담당자 | 연락처 |
---|---|---|
KERIS 개인정보 보호책임자 | 정보보호본부 김태우 | - 이메일 : lsy@keris.or.kr - 전화번호 : 053-714-0439 - 팩스번호 : 053-714-0195 |
KERIS 개인정보 보호담당자 | 개인정보보호부 이상엽 | |
RISS 개인정보 보호책임자 | 대학학술본부 장금연 | - 이메일 : giltizen@keris.or.kr - 전화번호 : 053-714-0149 - 팩스번호 : 053-714-0194 |
RISS 개인정보 보호담당자 | 학술진흥부 길원진 |
자동로그아웃 안내
닫기인증오류 안내
닫기귀하께서는 휴면계정 전환 후 1년동안 회원정보 수집 및 이용에 대한
재동의를 하지 않으신 관계로 개인정보가 삭제되었습니다.
(참조 : RISS 이용약관 및 개인정보처리방침)
신규회원으로 가입하여 이용 부탁 드리며, 추가 문의는 고객센터로 연락 바랍니다.
- 기존 아이디 재사용 불가
휴면계정 안내
RISS는 [표준개인정보 보호지침]에 따라 2년을 주기로 개인정보 수집·이용에 관하여 (재)동의를 받고 있으며, (재)동의를 하지 않을 경우, 휴면계정으로 전환됩니다.
(※ 휴면계정은 원문이용 및 복사/대출 서비스를 이용할 수 없습니다.)
휴면계정으로 전환된 후 1년간 회원정보 수집·이용에 대한 재동의를 하지 않을 경우, RISS에서 자동탈퇴 및 개인정보가 삭제처리 됩니다.
고객센터 1599-3122
ARS번호+1번(회원가입 및 정보수정)