신경망 학습에서 국부적 최적해 탈출을 위한 확률적 교환 = Stochastic Perturbation for Escaping Local Minima in Neural Network Learning
저자
발행기관
학술지명
권호사항
발행연도
1998
작성언어
Korean
KDC
004
자료형태
학술저널
발행기관 URL
수록면
122-131(10쪽)
제공처
EBP(Error Back-Propagation) 학습 알고리즘은 패턴 인식, 적응 제어 등의 복잡한 문제를 해결하는데 성공적으로 적용되어 온 다층 퍼셉트론(multi-layer perceptron)을 학습시키는 대표적인 학습 알고리즘이다. 그러나 이것은 몇 가지 문제점을 안고 있다. 즉, EBP 학습 알고리즘은 기본적으로 오차 표면의 기울기를 이용하여 학습을 수행하는 경사 하강법을 이용한 학습 알고리즘으로 국부적 최적해에 수렴할 수 있다는 문제점을 내포하고 있다. 더욱이 학습이 성공적으로 이루어지기 위해서는 주어진 문제의 적절한 신경망 구조를 결정해야 한다. 신경망 구조를 결정하는 것은 대개 은닉 노드의 개수를 결정하는 문제로서 이것은 주로 시행 착오에 의해서 결정된다. 이 논문에서는 위의 두 가지 문제를 해결하는 새로운 알고리즘을 제안한다. 제안한 학습 알고리즘은 가중치 공간에서 확률적 교란을 수행함으로써 다층 퍼셉트론 학습에서의 국부적 최적해에 수렴한 경우로부터 효과적으로 탈출한다. 확률적 교란 방법은 EBP 학습에 의하여 국부적 최적해에 수렴한 경우로부터 탈출하기 위하여 은닉 노드들과 관계된 가충치들을 확률적으로 재 초기화한다. 또한 새로운 은닉 노드의 추가 방법 역시 확률적 가중치 교란의 특별한 경우로 볼 수 있다. 따라서 확률적 교란을 통하여 국부적 최적해 문제 및 신경망 구조 설계 문제를 일관된 방법으로 해결할 수 있다. Horseshoes 문제, parity 문제, two-spirals 문제, 그리고 credit-screening 데이타 등에 대한 실험 결과는 제안한 알고리즘이 매우 효율적임을 보여준다.
더보기The Error Back-Propagation(EBP) algorithm is widely applied to train a multi-layer perceptron, which is a neural network model frequently used to solve complex problems such as pattern recognition and adaptive control. However, it suffers from some problems. The EBP is basically a gradient descent method, which may get stuck in a local minimum, leading to failure in finding the globally optimal solution. Moreover, a multi-layer perceptron suffers from lacking a systematic determination of the network structure appropriate for a given problem. It is usually the case to determine the number of hidden nodes by trial and error. In this paper, we propose a new algorithm to efficiently train a multi-layer perceptron. Our algorithm uses stochastic perturbation in the weight space to effectively escape from local minima in multi-layer perceptron learning. Stochastic perturbation probabilistically re-initializes weights associated with hidden nodes to escape a local minimum if the EBP learning gets stuck to it. Addition of new hidden nodes also can be viewed as a special case of stochastic perturbation. Using stochastic perturbation we can solve the local minima problem and the network structure design in a unified way. The results of our experiments with several benchmark test problems including the horseshoes problem, the panty problem, the two-spirals problem, and the credit-screening data show that our algorithm is very efficient.
더보기서지정보 내보내기(Export)
닫기소장기관 정보
닫기권호소장정보
닫기오류접수
닫기오류 접수 확인
닫기음성서비스 신청
닫기음성서비스 신청 확인
닫기이용약관
닫기학술연구정보서비스 이용약관 (2017년 1월 1일 ~ 현재 적용)
학술연구정보서비스(이하 RISS)는 정보주체의 자유와 권리 보호를 위해 「개인정보 보호법」 및 관계 법령이 정한 바를 준수하여, 적법하게 개인정보를 처리하고 안전하게 관리하고 있습니다. 이에 「개인정보 보호법」 제30조에 따라 정보주체에게 개인정보 처리에 관한 절차 및 기준을 안내하고, 이와 관련한 고충을 신속하고 원활하게 처리할 수 있도록 하기 위하여 다음과 같이 개인정보 처리방침을 수립·공개합니다.
주요 개인정보 처리 표시(라벨링)
목 차
3년
또는 회원탈퇴시까지5년
(「전자상거래 등에서의 소비자보호에 관한3년
(「전자상거래 등에서의 소비자보호에 관한2년
이상(개인정보보호위원회 : 개인정보의 안전성 확보조치 기준)개인정보파일의 명칭 | 운영근거 / 처리목적 | 개인정보파일에 기록되는 개인정보의 항목 | 보유기간 | |
---|---|---|---|---|
학술연구정보서비스 이용자 가입정보 파일 | 한국교육학술정보원법 | 필수 | ID, 비밀번호, 성명, 생년월일, 신분(직업구분), 이메일, 소속분야, 웹진메일 수신동의 여부 | 3년 또는 탈퇴시 |
선택 | 소속기관명, 소속도서관명, 학과/부서명, 학번/직원번호, 휴대전화, 주소 |
구분 | 담당자 | 연락처 |
---|---|---|
KERIS 개인정보 보호책임자 | 정보보호본부 김태우 | - 이메일 : lsy@keris.or.kr - 전화번호 : 053-714-0439 - 팩스번호 : 053-714-0195 |
KERIS 개인정보 보호담당자 | 개인정보보호부 이상엽 | |
RISS 개인정보 보호책임자 | 대학학술본부 장금연 | - 이메일 : giltizen@keris.or.kr - 전화번호 : 053-714-0149 - 팩스번호 : 053-714-0194 |
RISS 개인정보 보호담당자 | 학술진흥부 길원진 |
자동로그아웃 안내
닫기인증오류 안내
닫기귀하께서는 휴면계정 전환 후 1년동안 회원정보 수집 및 이용에 대한
재동의를 하지 않으신 관계로 개인정보가 삭제되었습니다.
(참조 : RISS 이용약관 및 개인정보처리방침)
신규회원으로 가입하여 이용 부탁 드리며, 추가 문의는 고객센터로 연락 바랍니다.
- 기존 아이디 재사용 불가
휴면계정 안내
RISS는 [표준개인정보 보호지침]에 따라 2년을 주기로 개인정보 수집·이용에 관하여 (재)동의를 받고 있으며, (재)동의를 하지 않을 경우, 휴면계정으로 전환됩니다.
(※ 휴면계정은 원문이용 및 복사/대출 서비스를 이용할 수 없습니다.)
휴면계정으로 전환된 후 1년간 회원정보 수집·이용에 대한 재동의를 하지 않을 경우, RISS에서 자동탈퇴 및 개인정보가 삭제처리 됩니다.
고객센터 1599-3122
ARS번호+1번(회원가입 및 정보수정)