http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.
변환된 중국어를 복사하여 사용하시면 됩니다.
4D 환경정보를 반영한 광역 경로수정계획 기법에 관한 연구
곽동준,신종호,김종희,Kwak, Dong Jun,Shin, Jongho,Kim, Chong Hui 한국군사과학기술학회 2016 한국군사과학기술학회지 Vol.19 No.6
In this paper, a global path replanning method is proposed in order to plan a global path minimizing the risk of the unmanned vehicle on the battlefield. We first introduce 4D environmental information consisting of mobility, visibility, kill, and hit attributes, and a unified threat map and a mobility map are defined by the four attributes. Using the mobility map, the unmanned vehicle can find the shortest path on the traversable area. And then taking into account the deterrent according to the type of the unmanned vehicle on the integrated threat map, the vehicle can generate a route to suppress or avoid the threat of enemy as well. Moreover, we present a waypoints bypassing method to exclude unnecessary waypoints rather than the mission point when planning paths for the multiple waypoints.
에피소드 매개변수 최적화를 이용한 확률게임에서의 추적정책 성능 향상
곽동준(Dong Jun Kwak),김현진(H. Jin Kim) 한국항공우주학회 2012 韓國航空宇宙學會誌 Vol.40 No.3
본 논문에서는 추적-회피 게임에서 추적자의 추적성능을 향상시키기 위한 최적화 기법을 소개한다. 제한된 공간상에서 추적자는 도망자를 빠른 시간 내에 찾아내고 잡기 위해 확률맵을 생성하고 그 확률정보를 토대로 탐색한다. 추적자는 기존 global-max와 local-max의 장점을 취한 hybrid 추적방식을 사용하는데 이 추적방식은 global-max와 local-max 성향을 조절하는 가중치를 갖는다. 따라서 상황별 최적의 가중치를 찾기 위해 에피소드 매개변수 최적화 알고리즘을 제안하였다. 이 알고리즘은 가중치에 대한 다수의 추적-회피 게임 에피소드를 반복적으로 수행하는 동안 강화학습을 통해 보상을 누적한 후 해당 가중치의 평균보상을 최대화 하는 방향으로 황금분할법을 사용하여 최적의 가중치를 찾는다. 이 최적화 기법을 이용하여 여러 상황별 최적 추적정책을 찾기 위해 도망자 수와 공간의 크기를 변화시켜가며 각각 최적화를 수행하였고 그 결과를 분석하였다. In this paper, we introduce an optimization method to improve pursuit performance of a pursuer in a pursuit-evasion game (PEG). Pursuers build a probability map and employ a hybrid pursuit policy which combines the merits of local-max and global-max pursuit policies to search and capture evaders as soon as possible in a 2-dimensional space. We propose an episodic parameter optimization (EPO) algorithm to learn good values for the weighting parameters of a hybrid pursuit policy. The EPO algorithm is performed while many episodes of the PEG are run repeatedly and the reward of each episode is accumulated using reinforcement learning, and the candidate weighting parameter is selected in a way that maximizes the total averaged reward by using the golden section search method. We found the best pursuit policy in various situations which are the different number of evaders and the different size of spaces and analyzed results.