Multirate generalized policy iteration for optimal control of discrete-time dynamical systems
저자
발행사항
Seoul : Graduate School, Yonsei University, 2017
학위논문사항
학위논문(박사) -- Graduate School, Yonsei University School of Electrical and Electronic Engineering 2017.8
발행연도
2017
작성언어
영어
주제어
발행국(도시)
서울
기타서명
이산시간 동적 시스템의 최적 제어를 위한 멀티레이트 일반 정책 반복법
형태사항
viii, 113장 : 삽화 ; 26 cm
일반주기명
지도교수: Jin Bae Park
소장기관
본 학위 논문에서는 이산시간 동적 시스템의 최적 제어를 위한 멀티레이트 일반정책반복법(multirate generalized policy iteration) 연구를 다룬다. 일반정책반복법(generalized policy iteration)과 멀티레이트 일반정책반복법은 최적 제어 문제를 위해 사용되는 기법들로 정책평가(policy evaluation) 단계와 정책향상(policy improvement) 단계를 반복적으로 수행하여 최적해를 구하는 적응 동적 계획법 (adaptive dynamic programming) 알고리즘이다. 최적성과 적응성을 동시에 가지는 상기 기법들은 제어공학과 기계학습 분야에서 많은 주목받아 왔으며, 다양한 응용 분야에 적용하기 위해서는 수렴성과 안정도 증명이 중요한 요소이다. 이를 위해 본 학위 논문에서는 각 기법의 제안과 함께 다음 요소들을 다루고자 한다.
첫째, 일반정책반복법을 제안하고 정책평가와 정책향상 단계의 분석을 수행한다. 반복을 통해 최적 제어 문제를 푸는 일반정책반복법은 정책반복법(policy iteration)과 평가치반복법(value iteration)의 장점을 모두 가지는 기법으로서, 평가치반복법 보다 빠른 수렴 속도를 가지며, 정책반복법에서 요구되는 초기 안정화 조건을 필요로 하지 않는 장점을 가진다. 이러한 장점을 가지는 일반정책반복법 알고리즘을 제안하고, 각 과정을 분석하기 위해 수학적 연산를 수행하여, 일반정책반복법의 행렬식을 유도, 단조 수렴 성질(monotone convergence property)과 폐루프 안정도(closed-loop stability)를 증명한다.
둘째로 이산시간 동적 시스템의 적응 최적 제어를 위한 멀티레이트 일반정책반복법에 관한 알고리즘을 제안한다. 제안하는 기법은 정책평가단계에서 멀티 스텝 추정(multi-step estimation)을 통해 정책평가단계와 정책향상단계 사이에 서로 다른 학습 시간을 가지는 경우를 고려한 것으로, 기존에 이산시간 시스템에서 다루지 못한 시간 구간(time horizon)과 계산 복잡성(computational complexity)을 동시에 다루는 알고리즘이다. 이를 위해 가치함수(value function), 공동상태(costate), Q-함수(Q-function)을 이용한 HDP, DHP, Q-학습법 기반의 세 가지 멀티레이트 일반정책반복법을 제안하며, 수학적 분석을 통해 제안하는 기법들 사이의 등가화된 행렬식을 유도한다. 이를 바탕으로 세 가지 알고리즘 사이의 유사성 및 등가성을 확인하였고, 이를 통해 새로운 분류법과 업데이트 구간(update horizon)을 증명한다. 또한, 등가화된 행렬식을 통해 제안한 알고리즘의 최적 해로의 수렴성 분석을 수행하였다. 특히 일반화된 수렴성을 보이기 위해 고유치 개념을 적용한 새로운 방법을 통해 기존에 증명하지 못했던 mixed-mode 수렴성을 유도한다. 이러한 결과들을 검증하기 위해 다양한 모의실험을 수행하여 제안된 기법의 성능과 이론적 성과를 확인하였다.
This dissertation deals with the optimal control of discrete-time (DT) systems using general policy iteration (GPI) and multirate GPI (MGPI). Applying the idea of approximating the optimal value function and the optimal control law, adaptive dynamic programming (ADP) allows solving optimal control problems forward-in-time with respect to an adaptive control law.
GPI is a family of ADP algorithms which employ the idea of interacting between policy and value iterations to solve the optimal control decision problems. Most ADP algorithms may be described as a special case of the GPI algorithm, research on GPI is necessary and the stability and convergence analyses for GPI, i.e., guarantee of the convergence and optimality, are important issues for developing the ADP schemes. In this dissertation, the followings are mainly discussed.
In the first part, GPI algorithm is mainly addressed and its properties are analyzed. GPI, demonstrated as an iterative algorithm for solving the optimal control problems, has the advantages of both policy iteration (PI) and value iteration (VI); it has faster convergence speed than VI and does not need the admissible stabilizing policy required by PI, which is a strict constraint in practical applications. By the mathematical analyses, the matrix formulas are derived, and the conditions for the monotone convergence properties, optimality and closed-loop stability are analyzed.
In the second part, novel ADP algorithms, called multirate GPI (MGPI) algorithms are proposed for solving the DT linear quadratic regulation (LQR) optimal problems. The proposed schemes use the multi-step estimation at the approximate policy evaluation step, in slower time scale while controlling the system using the current policy in the faster time scale. Three MGPI algorithms i.e., HDP, DHP and Q-learning based MGPI are proposed using value function, costate and Q-function, respectively. By several mathematical analyses, we present three MGPIs which have the new update horizon in terms of the time and iteration horizon. Further, the equivalent matrix formulas for two successive steps are analyzed, and using these formulas, the convergence properties of MGPI algorithms are proved. To enhance the convergence properties, the general convergence property of the MGPIs, in particular, the mixed-mode convergence property is discussed. Finally, numerical simulations are given to support the theoretical statements and verify the performance of the proposed schemes.
분석정보
서지정보 내보내기(Export)
닫기소장기관 정보
닫기권호소장정보
닫기오류접수
닫기오류 접수 확인
닫기음성서비스 신청
닫기음성서비스 신청 확인
닫기이용약관
닫기학술연구정보서비스 이용약관 (2017년 1월 1일 ~ 현재 적용)
학술연구정보서비스(이하 RISS)는 정보주체의 자유와 권리 보호를 위해 「개인정보 보호법」 및 관계 법령이 정한 바를 준수하여, 적법하게 개인정보를 처리하고 안전하게 관리하고 있습니다. 이에 「개인정보 보호법」 제30조에 따라 정보주체에게 개인정보 처리에 관한 절차 및 기준을 안내하고, 이와 관련한 고충을 신속하고 원활하게 처리할 수 있도록 하기 위하여 다음과 같이 개인정보 처리방침을 수립·공개합니다.
주요 개인정보 처리 표시(라벨링)
목 차
3년
또는 회원탈퇴시까지5년
(「전자상거래 등에서의 소비자보호에 관한3년
(「전자상거래 등에서의 소비자보호에 관한2년
이상(개인정보보호위원회 : 개인정보의 안전성 확보조치 기준)개인정보파일의 명칭 | 운영근거 / 처리목적 | 개인정보파일에 기록되는 개인정보의 항목 | 보유기간 | |
---|---|---|---|---|
학술연구정보서비스 이용자 가입정보 파일 | 한국교육학술정보원법 | 필수 | ID, 비밀번호, 성명, 생년월일, 신분(직업구분), 이메일, 소속분야, 웹진메일 수신동의 여부 | 3년 또는 탈퇴시 |
선택 | 소속기관명, 소속도서관명, 학과/부서명, 학번/직원번호, 휴대전화, 주소 |
구분 | 담당자 | 연락처 |
---|---|---|
KERIS 개인정보 보호책임자 | 정보보호본부 김태우 | - 이메일 : lsy@keris.or.kr - 전화번호 : 053-714-0439 - 팩스번호 : 053-714-0195 |
KERIS 개인정보 보호담당자 | 개인정보보호부 이상엽 | |
RISS 개인정보 보호책임자 | 대학학술본부 장금연 | - 이메일 : giltizen@keris.or.kr - 전화번호 : 053-714-0149 - 팩스번호 : 053-714-0194 |
RISS 개인정보 보호담당자 | 학술진흥부 길원진 |
자동로그아웃 안내
닫기인증오류 안내
닫기귀하께서는 휴면계정 전환 후 1년동안 회원정보 수집 및 이용에 대한
재동의를 하지 않으신 관계로 개인정보가 삭제되었습니다.
(참조 : RISS 이용약관 및 개인정보처리방침)
신규회원으로 가입하여 이용 부탁 드리며, 추가 문의는 고객센터로 연락 바랍니다.
- 기존 아이디 재사용 불가
휴면계정 안내
RISS는 [표준개인정보 보호지침]에 따라 2년을 주기로 개인정보 수집·이용에 관하여 (재)동의를 받고 있으며, (재)동의를 하지 않을 경우, 휴면계정으로 전환됩니다.
(※ 휴면계정은 원문이용 및 복사/대출 서비스를 이용할 수 없습니다.)
휴면계정으로 전환된 후 1년간 회원정보 수집·이용에 대한 재동의를 하지 않을 경우, RISS에서 자동탈퇴 및 개인정보가 삭제처리 됩니다.
고객센터 1599-3122
ARS번호+1번(회원가입 및 정보수정)