Nonparametric Bayesian Online Learning and Variational Gated Recurrent Unit
저자
발행사항
서울 : 서울대학교 대학원, 2019
학위논문사항
학위논문(박사)-- 서울대학교 대학원 : 통계학과 2019. 2
발행연도
2019
작성언어
영어
주제어
DDC
519.5 판사항(22)
발행국(도시)
서울
기타서명
비모수 베이지안 온라인 학습 방법과 변분 게이트 순환 유닛
형태사항
vii, 72장 : 삽화, 표 ; 26 cm
일반주기명
참고문헌 수록
UCI식별코드
I804:11032-000000155181
소장기관
Latent variable models provide complex distributions by introducing latent variables, which are not directly observable but affect observable variables.
Two latent variable models are considered in this thesis.
First, we consider a latent variable model having a discrete latent variable, called a mixture model.
Finite mixture models suffer from underfitting or overfitting depending on the choice of the number of components.
In contrast, Dirichlet process (DP) mixture models assume infinitely many components by using a DP prior distribution for the mixing distribution, and the number of occupied components, to which observed data are assigned, can vary during the inference.
We propose an online learning method for DP mixture models to handle large-scale data as well as streaming data with limited computing resources.
Secondly, we consider a latent variable model for sequential data.
As a generative model for sequential data, latent recurrent neural networks (RNNs), which incorporate latent variables in RNNs, have been developed to capture complex dependencies observed in sequential data such as speeches.
We propose a new latent RNN which incorporates a special architecture by adopting the idea of gated recurrent unit.
This architecture enforces latent variables to capture the structural persistency.
잠재변수모형은 직접 관측할 수는 없지만 자료에 영향을 끼치는 잠재변수를 도입하여 자료를 보다 복잡하게 모형화한다.
본 논문에서는 두 가지 잠재변수모형을 다루는데, 첫 번째로 혼합모형이라 불리는 이산 잠재변수를 갖는 잠재변수모형을 다룬다.
유한혼합모형은 성분의 수를 미리 결정해야 하는데, 이 선택에 따라 과소적합 또는 과적합이 발생할 수 있다.
반면에 디리클레과정 혼합모형은 혼합분포에 디리클레과정 사전분포를 사용하여 무한히 많은 성분을 가정하고, 추론 도중에 자료가 점유하고 있는 성분의 수가 변할 수 있다.
본 논문에서는 제한된 컴퓨팅 자원에서 대규모 자료 및 스트리밍 자료를 처리하기 위한 디리클레과정 혼합모형의 온라인 학습 방법을 제안하였다.
두 번째로 순차적인 자료의 잠재변수모형을 다룬다.
순환 신경망은 변동성이 작기 때문에 연설, 문장 또는 음악과 같은 순차적인 자료에서 관찰되는 복잡한 의존성이나 패턴을 모형화하기 어렵다.
최근에는 순환 신경망에 잠재변수를 도입하여 변동성을 증가시키는 많은 연구들이 진행되었다.
본 논문에서는 기존의 잠재 순환 신경망들을 결합하고, 추가적으로 잠재변수가 순차적인 자료 내에 존재하는 구조적 지속성을 포착할 수 있도록 게이트 순환 유닛의 아이디어를 차용하여 특별한 구조를 갖는 잠재 순환 신경망을 제안하였다.
분석정보
서지정보 내보내기(Export)
닫기소장기관 정보
닫기권호소장정보
닫기오류접수
닫기오류 접수 확인
닫기음성서비스 신청
닫기음성서비스 신청 확인
닫기이용약관
닫기학술연구정보서비스 이용약관 (2017년 1월 1일 ~ 현재 적용)
학술연구정보서비스(이하 RISS)는 정보주체의 자유와 권리 보호를 위해 「개인정보 보호법」 및 관계 법령이 정한 바를 준수하여, 적법하게 개인정보를 처리하고 안전하게 관리하고 있습니다. 이에 「개인정보 보호법」 제30조에 따라 정보주체에게 개인정보 처리에 관한 절차 및 기준을 안내하고, 이와 관련한 고충을 신속하고 원활하게 처리할 수 있도록 하기 위하여 다음과 같이 개인정보 처리방침을 수립·공개합니다.
주요 개인정보 처리 표시(라벨링)
목 차
3년
또는 회원탈퇴시까지5년
(「전자상거래 등에서의 소비자보호에 관한3년
(「전자상거래 등에서의 소비자보호에 관한2년
이상(개인정보보호위원회 : 개인정보의 안전성 확보조치 기준)개인정보파일의 명칭 | 운영근거 / 처리목적 | 개인정보파일에 기록되는 개인정보의 항목 | 보유기간 | |
---|---|---|---|---|
학술연구정보서비스 이용자 가입정보 파일 | 한국교육학술정보원법 | 필수 | ID, 비밀번호, 성명, 생년월일, 신분(직업구분), 이메일, 소속분야, 웹진메일 수신동의 여부 | 3년 또는 탈퇴시 |
선택 | 소속기관명, 소속도서관명, 학과/부서명, 학번/직원번호, 휴대전화, 주소 |
구분 | 담당자 | 연락처 |
---|---|---|
KERIS 개인정보 보호책임자 | 정보보호본부 김태우 | - 이메일 : lsy@keris.or.kr - 전화번호 : 053-714-0439 - 팩스번호 : 053-714-0195 |
KERIS 개인정보 보호담당자 | 개인정보보호부 이상엽 | |
RISS 개인정보 보호책임자 | 대학학술본부 장금연 | - 이메일 : giltizen@keris.or.kr - 전화번호 : 053-714-0149 - 팩스번호 : 053-714-0194 |
RISS 개인정보 보호담당자 | 학술진흥부 길원진 |
자동로그아웃 안내
닫기인증오류 안내
닫기귀하께서는 휴면계정 전환 후 1년동안 회원정보 수집 및 이용에 대한
재동의를 하지 않으신 관계로 개인정보가 삭제되었습니다.
(참조 : RISS 이용약관 및 개인정보처리방침)
신규회원으로 가입하여 이용 부탁 드리며, 추가 문의는 고객센터로 연락 바랍니다.
- 기존 아이디 재사용 불가
휴면계정 안내
RISS는 [표준개인정보 보호지침]에 따라 2년을 주기로 개인정보 수집·이용에 관하여 (재)동의를 받고 있으며, (재)동의를 하지 않을 경우, 휴면계정으로 전환됩니다.
(※ 휴면계정은 원문이용 및 복사/대출 서비스를 이용할 수 없습니다.)
휴면계정으로 전환된 후 1년간 회원정보 수집·이용에 대한 재동의를 하지 않을 경우, RISS에서 자동탈퇴 및 개인정보가 삭제처리 됩니다.
고객센터 1599-3122
ARS번호+1번(회원가입 및 정보수정)