KCI우수등재
LNGC 환경 예측 모델을 이용한 심층 강화학습 기반 에너지-효율적 공조 제어 방법 = An Energy-Efficient HVAC Control Scheme Based on Deep Reinforcement Learning Using Liquefied Natural Gas Carrier Environment Prediction Model
저자
발행기관
학술지명
권호사항
발행연도
2022
작성언어
Korean
주제어
등재정보
KCI우수등재
자료형태
학술저널
발행기관 URL
수록면
1062-1070(9쪽)
DOI식별코드
제공처
This paper proposes a heating, ventilation, and air conditioning (HVAC) control scheme based on deep reinforcement learning to stably maintain the internal environment of an LNG cargo hold under construction and minimize energy consumption. Since a particular environment such as inside of a cargo ship under construction is readily influenced by several factors, it is difficult to accurately forecast indoor temperature and humidity information and automatically control HVAC system. To alleviate this problem, we propose a novel scheme to steadily controlling an indoor environment via an HVAC control agent trained through a deep reinforcement learning model. In this scheme, we construct an indoor-environment state prediction model based on correlational analyses of collected data without expertise concerning the operating circumstance, define the state and action based on the model, and then build the agent trained with a policy through a reward function. To assess the validity of the proposed scheme, we conduct HVAC control performance evaluation in a simulated environment built using the data collected from an actual LNGC HVAC system. Our simulation results show that the Double Deep Q-Network (DQN) model was the most effective for HVAC control among three types of reinforcement learning models that we considered in this study. Also, the results reveal that the trained agent could reduce average daily power consumption by 28.2% while stabilizing indoor environment of the cargo hold within user-specified temperature range.
더보기본 논문은 건조 중인 LNG 화물창 환경을 안정적으로 유지하고 에너지를 최소화하기 위한 심층 강화학습 기반 공조 제어 방법을 제안한다. 건조 중인 화물창 내부와 같은 특수한 환경은 여러 요인에 의해 영향받기 쉬우므로, 정보를 정확히 예측하여 에너지 소모가 많은 공조 시스템을 자동으로 제어하기 어렵다. 이러한 문제를 완화하기 위해, 우리는 심층 강화 학습 모델을 통해 훈련된 공조 제어 에이전트를 통해 실내 환경을 안정적으로 제어하는 최신 방법을 제안한다. 이 방법에서는 운영 상황에 대한 전문지식 없이, 수집된 데이터의 상관 분석을 기반으로 실내 환경 상태 예측 모델을 구성하고, 모델을 기반으로 상태와 행동을 정의한 후 보상 기능을 통해 정책으로 훈련된 에이전트를 구축한다. 제안한 방법의 유효성을 확인하기 위하여, 우리는 실제 LNG 화물창 내부 공조 시스템에서 수집한 데이터를 이용하여 구축한 시뮬레이션 환경에서 HVAC 제어 성능 평가를 수행한다. 우리의 시뮬레이션 결과는 본 논문에서 고려하였던 3종의 강화학습 모델 중 Double DQN 모델이 공조 제어에 가장 효과적임을 보인다. 또한, 그 결과는 학습된 에이전트가 사용자-지정 온도 내에서 화물창 내부 환경을 안정적으로 유지 시키면서 일 평균 28.2% 까지 전력 소모를 줄일 수 있음을 보인다.
더보기분석정보
서지정보 내보내기(Export)
닫기소장기관 정보
닫기권호소장정보
닫기오류접수
닫기오류 접수 확인
닫기음성서비스 신청
닫기음성서비스 신청 확인
닫기이용약관
닫기학술연구정보서비스 이용약관 (2017년 1월 1일 ~ 현재 적용)
학술연구정보서비스(이하 RISS)는 정보주체의 자유와 권리 보호를 위해 「개인정보 보호법」 및 관계 법령이 정한 바를 준수하여, 적법하게 개인정보를 처리하고 안전하게 관리하고 있습니다. 이에 「개인정보 보호법」 제30조에 따라 정보주체에게 개인정보 처리에 관한 절차 및 기준을 안내하고, 이와 관련한 고충을 신속하고 원활하게 처리할 수 있도록 하기 위하여 다음과 같이 개인정보 처리방침을 수립·공개합니다.
주요 개인정보 처리 표시(라벨링)
목 차
3년
또는 회원탈퇴시까지5년
(「전자상거래 등에서의 소비자보호에 관한3년
(「전자상거래 등에서의 소비자보호에 관한2년
이상(개인정보보호위원회 : 개인정보의 안전성 확보조치 기준)개인정보파일의 명칭 | 운영근거 / 처리목적 | 개인정보파일에 기록되는 개인정보의 항목 | 보유기간 | |
---|---|---|---|---|
학술연구정보서비스 이용자 가입정보 파일 | 한국교육학술정보원법 | 필수 | ID, 비밀번호, 성명, 생년월일, 신분(직업구분), 이메일, 소속분야, 웹진메일 수신동의 여부 | 3년 또는 탈퇴시 |
선택 | 소속기관명, 소속도서관명, 학과/부서명, 학번/직원번호, 휴대전화, 주소 |
구분 | 담당자 | 연락처 |
---|---|---|
KERIS 개인정보 보호책임자 | 정보보호본부 김태우 | - 이메일 : lsy@keris.or.kr - 전화번호 : 053-714-0439 - 팩스번호 : 053-714-0195 |
KERIS 개인정보 보호담당자 | 개인정보보호부 이상엽 | |
RISS 개인정보 보호책임자 | 대학학술본부 장금연 | - 이메일 : giltizen@keris.or.kr - 전화번호 : 053-714-0149 - 팩스번호 : 053-714-0194 |
RISS 개인정보 보호담당자 | 학술진흥부 길원진 |
자동로그아웃 안내
닫기인증오류 안내
닫기귀하께서는 휴면계정 전환 후 1년동안 회원정보 수집 및 이용에 대한
재동의를 하지 않으신 관계로 개인정보가 삭제되었습니다.
(참조 : RISS 이용약관 및 개인정보처리방침)
신규회원으로 가입하여 이용 부탁 드리며, 추가 문의는 고객센터로 연락 바랍니다.
- 기존 아이디 재사용 불가
휴면계정 안내
RISS는 [표준개인정보 보호지침]에 따라 2년을 주기로 개인정보 수집·이용에 관하여 (재)동의를 받고 있으며, (재)동의를 하지 않을 경우, 휴면계정으로 전환됩니다.
(※ 휴면계정은 원문이용 및 복사/대출 서비스를 이용할 수 없습니다.)
휴면계정으로 전환된 후 1년간 회원정보 수집·이용에 대한 재동의를 하지 않을 경우, RISS에서 자동탈퇴 및 개인정보가 삭제처리 됩니다.
고객센터 1599-3122
ARS번호+1번(회원가입 및 정보수정)