Replacement 를 활용한 개체명 인식 모델 학습 데이터 증강 기법
저자
발행사항
서울 : 성균관대학교 일반대학원, 2022
학위논문사항
학위논문(석사)-- 성균관대학교 일반대학원 : 데이터사이언스융합학과 2022. 8
발행연도
2022
작성언어
한국어
주제어
발행국(도시)
서울
기타서명
Replacement based named entity recognition data augmentation techniques
형태사항
45 p. : 삽화(일부천연색), 표 ; 30 cm
일반주기명
지도교수: 김재광
참고문헌 : p. 41-43
UCI식별코드
I804:11040-000000170878
DOI식별코드
소장기관
자연어 처리 분야(NLP, Natural Language Processing)에서 Attention 메커니즘 기반의 Transformer 모델 구조를 활용한 사전 학습된 언어 모델(PLM, Pre-trained Language Model)들이 대거 등장하게 되면서 수 많은 자연어 관련 Task 에서 좋은 성능의 결과를 얻는 모델들을 학습할 수 있게 되었다. 최근에는 이런 사전 학습된 언어 모델들의 파라미터의 수가 점점 커져가면서 Large Scale 을 갖는 모델들이 등장하고 있고, Large-scale Pre-trained Model 을 활용하여 주어진 자연어 문제를 풀고자 할 때 필수 요소 중 하나는 Downstream Task 에 대해서 충분한 Labeled Dataset 을 확보하는 것이다.
Fine-Tuning 을 충분히 학습하여 좋은 성능을 갖는 모델을 얻기 위해서는 각각의 Task 에 적합한 충분한 양의 Labeled Dataset 이 필요하지만, 이런 데이터셋을 구축하는 데에는 많은 시간과 비용 및 다수의 훈련된 작업자가 필요하다. 또한 일반적으로 특정한 Task 를 해결하기 위해 구축한 데이터셋은 다른 Task 에는 적용하는데 많은 제약과 어려움이 따른다. 즉 데이터셋의 재활용 측면에서 보면 효율적이지 못하다.
그렇기 때문에 다양한 Augmentation 기법을 통하여 소수의 Labeled Dataset 을 가지고도 좋은 성능을 낼 수 있는 모델을 만드는 방법에 대해서 최근 많은 연구들이 진행되고 있다.
자연어 처리 분야의 대표적인 Task 중 하나인 개체명 인식(NER, Named Entity Recognition)은 자연어 문장에서 사전에 정의되어 있는 개체명으로 사용된 단어를 추출하는 작업을 의미한다. 이런 개체명 인식 모델을 Fine-Tuning 하기 위해서는 역시 많은 양의 Labeled Dataset 이 필요하며, 개채명 인식 모델을 위한 Labeled Dataset 의 경우 각각의 단어들에 대하여 모두 Label 이 존재해야 하기 때문에 비교적 간단한 Task 인 Text Classification 을 위한 Labeled Dataset 구축 보다도 훨씬 더 많은 시간과 비용이 필요하다. 그렇기 때문에 본 연구에서는 개체명 인식 모델을 위한 Augmentation 기법을 연구한다. 각각의 개체명들의 Bag of words 를 기반으로 단어의 교체(Relpacement)를 통한 Augmentation 기법을 제안하며 이와 더불어 기존의 Text Classification 에서 널리 사용된 Augmentation 기법인 EDA 와 AEDA 를 결합한 방법, Self-Training 을 결합한 방법을 추가로 제안한다.
마지막으로, 기존의 Text Classification 분야 등에서 널리 사용된 텍스트 Augmentation 기법과 본 연구에서 제안 기법의 성능을 비교하여, 자연어 처리 분야에서 Fine-Tuning 을 위한 Augmentation 기법은 각 Task 에 알맞는 최적화된 방법을 사용하는 것이 더 좋은 방법임을 제안한다.
In the field of natural language processing (NLP), a large number of pre-trained language models (PLMs) of the Attention Mechanism-based Transformer model structure have emerged, allowing us to learn models that achieve good performance on many natural language-related tasks. Recently, as the number of parameters of these pre- learned language models is increasing, models with a large scale pre-trained model are emerging, and one of the essential factors for solving a given natural language problem depends on fine-tuning learning with enough Labeled Dataset.
In order to learn Fine-Tuning sufficiently and obtain a model with good performance, a sufficient amount of Labeled Dataset suitable for each task is required, but it takes a lot of time, money, and a large number of workers to build this dataset. In addition, datasets built to address specific tasks generally have many constraints and difficulties in applying them to other tasks. In other words, it is not efficient in terms of recycling.
Therefore, many studies have recently been conducted on how to create a model that can produce good performance even with a small number of Labeled Datasets through various Augmentation techniques.
Named entity recognition (NER), one of the most representative tasks in the field of natural language processing, refers to the extraction of words used as predefined entity names in natural language sentences. Fine-tuning these object name recognition models also requires a large amount of Labeled Dataset, and Labeled Dataset for dog name recognition models requires a label for each word, so it takes much more time and money than building Labeled Dataset for Text Classification, a relatively simple task. Therefore, in this study, we study the Augmentation technique for the object name recognition model. Based on the Bag of words of each individual name, we propose an augmentation technique through word replacement, along with a method that combines EDA and AEDA, which are widely used in existing Text Classification, and a method that combines Self- Training.
Finally, comparing the performance of the text augmentation technique widely used in the field of Text Classification and the proposed technique in this study, we propose that the augmentation technique for Fine-Tuning in the field of natural language processing is a better method to use an optimized method for each task.
분석정보
서지정보 내보내기(Export)
닫기소장기관 정보
닫기권호소장정보
닫기오류접수
닫기오류 접수 확인
닫기음성서비스 신청
닫기음성서비스 신청 확인
닫기이용약관
닫기학술연구정보서비스 이용약관 (2017년 1월 1일 ~ 현재 적용)
학술연구정보서비스(이하 RISS)는 정보주체의 자유와 권리 보호를 위해 「개인정보 보호법」 및 관계 법령이 정한 바를 준수하여, 적법하게 개인정보를 처리하고 안전하게 관리하고 있습니다. 이에 「개인정보 보호법」 제30조에 따라 정보주체에게 개인정보 처리에 관한 절차 및 기준을 안내하고, 이와 관련한 고충을 신속하고 원활하게 처리할 수 있도록 하기 위하여 다음과 같이 개인정보 처리방침을 수립·공개합니다.
주요 개인정보 처리 표시(라벨링)
목 차
3년
또는 회원탈퇴시까지5년
(「전자상거래 등에서의 소비자보호에 관한3년
(「전자상거래 등에서의 소비자보호에 관한2년
이상(개인정보보호위원회 : 개인정보의 안전성 확보조치 기준)개인정보파일의 명칭 | 운영근거 / 처리목적 | 개인정보파일에 기록되는 개인정보의 항목 | 보유기간 | |
---|---|---|---|---|
학술연구정보서비스 이용자 가입정보 파일 | 한국교육학술정보원법 | 필수 | ID, 비밀번호, 성명, 생년월일, 신분(직업구분), 이메일, 소속분야, 웹진메일 수신동의 여부 | 3년 또는 탈퇴시 |
선택 | 소속기관명, 소속도서관명, 학과/부서명, 학번/직원번호, 휴대전화, 주소 |
구분 | 담당자 | 연락처 |
---|---|---|
KERIS 개인정보 보호책임자 | 정보보호본부 김태우 | - 이메일 : lsy@keris.or.kr - 전화번호 : 053-714-0439 - 팩스번호 : 053-714-0195 |
KERIS 개인정보 보호담당자 | 개인정보보호부 이상엽 | |
RISS 개인정보 보호책임자 | 대학학술본부 장금연 | - 이메일 : giltizen@keris.or.kr - 전화번호 : 053-714-0149 - 팩스번호 : 053-714-0194 |
RISS 개인정보 보호담당자 | 학술진흥부 길원진 |
자동로그아웃 안내
닫기인증오류 안내
닫기귀하께서는 휴면계정 전환 후 1년동안 회원정보 수집 및 이용에 대한
재동의를 하지 않으신 관계로 개인정보가 삭제되었습니다.
(참조 : RISS 이용약관 및 개인정보처리방침)
신규회원으로 가입하여 이용 부탁 드리며, 추가 문의는 고객센터로 연락 바랍니다.
- 기존 아이디 재사용 불가
휴면계정 안내
RISS는 [표준개인정보 보호지침]에 따라 2년을 주기로 개인정보 수집·이용에 관하여 (재)동의를 받고 있으며, (재)동의를 하지 않을 경우, 휴면계정으로 전환됩니다.
(※ 휴면계정은 원문이용 및 복사/대출 서비스를 이용할 수 없습니다.)
휴면계정으로 전환된 후 1년간 회원정보 수집·이용에 대한 재동의를 하지 않을 경우, RISS에서 자동탈퇴 및 개인정보가 삭제처리 됩니다.
고객센터 1599-3122
ARS번호+1번(회원가입 및 정보수정)