KCI등재
언어 정보가 반영된 문장 점수를 활용하는삭제 기반 문장 압축 = Deletion-Based Sentence Compression Using Sentence Scoring Reflecting Linguistic Information
저자
이준범 (경희대학교 컴퓨터공학과) ; 김소언 (경희대학교 컴퓨터공학과) ; 박성배 (경희대학교) 연구자관계분석
발행기관
학술지명
정보처리학회논문지. 소프트웨어 및 데이터 공학(KIPS Transactions on Software and Data Engineering)
권호사항
발행연도
2022
작성언어
Korean
주제어
등재정보
KCI등재
자료형태
학술저널
수록면
125-132(8쪽)
KCI 피인용횟수
0
제공처
소장기관
Sentence compression is a natural language processing task that generates concise sentences that preserves the important meaning ofthe original sentence. For grammatically appropriate sentence compression, early studies utilized human-defined linguistic rules.
Furthermore, while the sequence-to-sequence models perform well on various natural language processing tasks, such as machine translation,there have been studies that utilize it for sentence compression. However, for the linguistic rule-based studies, all rules have to be definedby human, and for the sequence-to-sequence model based studies require a large amount of parallel data for model training. In orderto address these challenges, Deleter, a sentence compression model that leverages a pre-trained language model BERT, is proposed. Becausethe Deleter utilizes perplexity based score computed over BERT to compress sentences, any linguistic rules and parallel dataset is not requiredfor sentence compression. However, because Deleter compresses sentences only considering perplexity, it does not compress sentencesby reflecting the linguistic information of the words in the sentences. Furthermore, since the dataset used for pre-learning BERT are farfrom compressed sentences, there is a problem that this can lad to incorrect sentence compression. In order to address these problems,this paper proposes a method to quantify the importance of linguistic information and reflect it in perplexity-based sentence scoring.
Furthermore, by fine-tuning BERT with a corpus of news articles that often contain proper nouns and often omit the unnecessary modifiers,we allow BERT to measure the perplexity appropriate for sentence compression. The evaluations on the English and Korean dataset confirmthat the sentence compression performance of sentence-scoring based models can be improved by utilizing the proposed method.
문장 압축은 원본 문장의 중요한 의미는 유지하면서 길이가 축소된 압축 문장을 생성하는 자연어처리 태스크이다. 문법적으로 적절한 문장압축을 위해, 초기 연구들은 사람이 정의한 언어 규칙을 활용하였다. 또한 시퀀스-투-시퀀스 모델이 기계 번역과 같은 다양한 자연어처리 태스크에서좋은 성능을 보이면서, 이를 문장 압축에 활용하고자 하는 연구들도 존재했다. 하지만 언어 규칙을 활용하는 연구의 경우 모든 언어 규칙을 정의하는데에 큰 비용이 들고, 시퀀스-투-시퀀스 모델 기반 연구의 경우 학습을 위해 대량의 데이터셋이 필요하다는 문제점이 존재한다. 이를 해결할 수있는 방법으로 사전 학습된 언어 모델인 BERT를 활용하는 문장 압축 모델인 Deleter가 제안되었다. Deleter는 BERT를 통해 계산된 perplexity를활용하여 문장을 압축하기 때문에 문장 압축 규칙과 모델 학습을 위한 데이터셋이 필요하지 않다는 장점이 있다. 하지만 Deleter는 perplexity만을고려하여 문장을 압축하기 때문에, 문장에 속한 단어들의 언어 정보를 반영하여 문장을 압축하지 못한다. 또한, perplexity 측정을 위한 BERT의사전 학습에 사용된 데이터가 압축 문장과 거리가 있어, 이를 통해 측정된 perplexity가 잘못된 문장 압축을 유도할 수 있다는 문제점이 있다.
이를 해결하기 위해 본 논문은 언어 정보의 중요도를 수치화하여 perplexity 기반의 문장 점수 계산에 반영하는 방법을 제안한다. 또한 고유명사가자주 포함되어 있으며, 불필요한 수식어가 생략되는 경우가 많은 뉴스 기사 말뭉치로 BERT를 fine-tuning하여 문장 압축에 적절한 perplexity를측정할 수 있도록 하였다. 영어 및 한국어 데이터에 대한 성능 평가를 위해 본 논문에서 제안하는 LI-Deleter와 비교 모델의 문장 압축 성능을비교 실험을 진행하였고, 높은 문장 압축 성능을 보임을 확인하였다.
분석정보
연월일 | 이력구분 | 이력상세 | 등재구분 |
---|---|---|---|
2027 | 평가예정 | 재인증평가 신청대상 (재인증) | |
2021-01-01 | 평가 | 등재학술지 유지 (재인증) | KCI등재 |
2018-01-01 | 평가 | 등재학술지 유지 (등재유지) | KCI등재 |
2015-01-01 | 평가 | 등재학술지 유지 (계속평가) | KCI등재 |
2012-10-31 | 학술지명변경 | 한글명 : 소프트웨어 및 데이터 공학 -> 정보처리학회논문지. 소프트웨어 및 데이터 공학 | KCI등재 |
2012-10-10 | 학술지명변경 | 한글명 : 정보처리학회논문지B -> 소프트웨어 및 데이터 공학외국어명 : The KIPS Transactions : Part B -> KIPS Transactions on Software and Data Engineering | KCI등재 |
2010-01-01 | 평가 | 등재학술지 유지 (등재유지) | KCI등재 |
2008-01-01 | 평가 | 등재학술지 유지 (등재유지) | KCI등재 |
2006-01-01 | 평가 | 등재학술지 유지 (등재유지) | KCI등재 |
2003-01-01 | 평가 | 등재학술지 선정 (등재후보2차) | KCI등재 |
2002-01-01 | 평가 | 등재후보 1차 PASS (등재후보1차) | KCI후보 |
2000-07-01 | 평가 | 등재후보학술지 선정 (신규평가) | KCI후보 |
기준연도 | WOS-KCI 통합IF(2년) | KCIF(2년) | KCIF(3년) |
---|---|---|---|
2016 | 0.35 | 0.35 | 0.28 |
KCIF(4년) | KCIF(5년) | 중심성지수(3년) | 즉시성지수 |
0.23 | 0.19 | 0.511 | 0.06 |
서지정보 내보내기(Export)
닫기소장기관 정보
닫기권호소장정보
닫기오류접수
닫기오류 접수 확인
닫기음성서비스 신청
닫기음성서비스 신청 확인
닫기이용약관
닫기학술연구정보서비스 이용약관 (2017년 1월 1일 ~ 현재 적용)
학술연구정보서비스(이하 RISS)는 정보주체의 자유와 권리 보호를 위해 「개인정보 보호법」 및 관계 법령이 정한 바를 준수하여, 적법하게 개인정보를 처리하고 안전하게 관리하고 있습니다. 이에 「개인정보 보호법」 제30조에 따라 정보주체에게 개인정보 처리에 관한 절차 및 기준을 안내하고, 이와 관련한 고충을 신속하고 원활하게 처리할 수 있도록 하기 위하여 다음과 같이 개인정보 처리방침을 수립·공개합니다.
주요 개인정보 처리 표시(라벨링)
목 차
3년
또는 회원탈퇴시까지5년
(「전자상거래 등에서의 소비자보호에 관한3년
(「전자상거래 등에서의 소비자보호에 관한2년
이상(개인정보보호위원회 : 개인정보의 안전성 확보조치 기준)개인정보파일의 명칭 | 운영근거 / 처리목적 | 개인정보파일에 기록되는 개인정보의 항목 | 보유기간 | |
---|---|---|---|---|
학술연구정보서비스 이용자 가입정보 파일 | 한국교육학술정보원법 | 필수 | ID, 비밀번호, 성명, 생년월일, 신분(직업구분), 이메일, 소속분야, 웹진메일 수신동의 여부 | 3년 또는 탈퇴시 |
선택 | 소속기관명, 소속도서관명, 학과/부서명, 학번/직원번호, 휴대전화, 주소 |
구분 | 담당자 | 연락처 |
---|---|---|
KERIS 개인정보 보호책임자 | 정보보호본부 김태우 | - 이메일 : lsy@keris.or.kr - 전화번호 : 053-714-0439 - 팩스번호 : 053-714-0195 |
KERIS 개인정보 보호담당자 | 개인정보보호부 이상엽 | |
RISS 개인정보 보호책임자 | 대학학술본부 장금연 | - 이메일 : giltizen@keris.or.kr - 전화번호 : 053-714-0149 - 팩스번호 : 053-714-0194 |
RISS 개인정보 보호담당자 | 학술진흥부 길원진 |
자동로그아웃 안내
닫기인증오류 안내
닫기귀하께서는 휴면계정 전환 후 1년동안 회원정보 수집 및 이용에 대한
재동의를 하지 않으신 관계로 개인정보가 삭제되었습니다.
(참조 : RISS 이용약관 및 개인정보처리방침)
신규회원으로 가입하여 이용 부탁 드리며, 추가 문의는 고객센터로 연락 바랍니다.
- 기존 아이디 재사용 불가
휴면계정 안내
RISS는 [표준개인정보 보호지침]에 따라 2년을 주기로 개인정보 수집·이용에 관하여 (재)동의를 받고 있으며, (재)동의를 하지 않을 경우, 휴면계정으로 전환됩니다.
(※ 휴면계정은 원문이용 및 복사/대출 서비스를 이용할 수 없습니다.)
휴면계정으로 전환된 후 1년간 회원정보 수집·이용에 대한 재동의를 하지 않을 경우, RISS에서 자동탈퇴 및 개인정보가 삭제처리 됩니다.
고객센터 1599-3122
ARS번호+1번(회원가입 및 정보수정)