http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.
변환된 중국어를 복사하여 사용하시면 됩니다.
Expansion tube에 의해 생성된 초음속 유동의 수치적 모의실험
전영진(Youngjin Jeon),임성균(Seongkyun Im) 대한기계학회 2021 대한기계학회 춘추학술대회 Vol.2021 No.11
A numerical study was conducted to simulate the flows generated by an expansion tube and aid the design of the expansion tube which will be built at Korea University. Expansion tube has several advantages over other impulse facilities. Expansion tube is capable of duplicating a wide range of hypervelocity gas flows although it has a relatively short test time and strong flow disturbances. Here, we report the simulated results on the characteristics of expansion tube-generated flows. Ideal gasdynamic processes are analyzed for the validation of inviscid and viscous simulations. Then, viscous simulations were conducted in order to preliminarily obtain flow characteristics under various operation conditions.
견고한 점토층에서 실시된 터널근접시공으로 인한 단독말뚝의 거동에 대한 연구
전영진(Youngjin Jeon),이철주(Cheolju Lee) 한국지반환경공학회 2015 한국지반환경공학회논문집 Vol.16 No.6
본 연구에서는 3차원 유한요소 해석을 수행하여 터널굴착에 의한 말뚝의 거동변화를 지배하는 말뚝선단에 대한 터널의 상대 위치를 고려하여 분석하였다. 수치해석 결과를 순수하게 터널굴착으로 발생한(Tunnelling-induced) 말뚝두부의 침하, 상대변위, 체적손실률(Volume loss), 말뚝의 축력, 전단응력 그리고 겉보기안전율 등을 분석하였다. 터널과 말뚝선단의 상대위치를 고려했을 때 말뚝선단이 터널굴착으로 인한 지반침하 영향권 내부에 존재하는 경우 Tunnelling-induced 말뚝두부의 침하는 지표면의 침하보다 크게 나타났으며, 이는 말뚝에 Tunnelling-induced 인장력을 발생시켰다. 반대로 말뚝선단이 터널굴착으로 인한 지반침하 영향권 외부에 존재할 경우, 말뚝상부에서 유발된 하향의 전단응력으로 인해 말뚝에는 Tunnelling-induced 압축력이 작용하였다. 수치해석을 통해 분석된 하중-변위 관계를 이용하여 겉보기안전율을 분석한 결과 말뚝선단이 터널굴착으로 인한 지반침하 영향권 내부에 존재할 경우 말뚝의 겉보기안전율은 평균 약 36% 감소하는 것으로 나타났다. 터널의 상대위치에 따른 전단응력전이 매커니즘을 Tunnelling-induced 말뚝축력, 전단응력과 말뚝의 겉보기안전율을 고려하여 심도 있게 고찰하였다. In the current work, a series of three-dimensional (3D) numerical modelling has been performed in order to study the effects of the relative locations of tunnels with respect to the position of pile tips which governs the behaviour of pre-existing, adjacent single piles. In the numerical analyses, several governing factors, such as tunnelling-induced pile head settlements, relative displacements, volume losses, axial pile forces, interface shear stresses and apparent factors of safety have been analysed. When the pile tips are inside the tunnelling influence zone, of which the pile tip location is considered with respect to the tunnel position, tunnelling-induced pile head settlements are larger than the ground surface settlements, resulting in tunnelling-induced tensile pile forces. On the contrary, when the pile tips are outside the influence zone, compressive pile forces associated with downward shear stresses at the upper part of the piles are developed. Based on computed load and displacement relation of the pile, the apparent factors of safety of the piles inside the tunnelling influence zone have been reduced by 36% in average. The shear transfer mechanism based on the relative tunnel locations has been analysed in great detail by considering tunnelling-induced pile forces, interface shear stresses and the apparent factors of safety.
CNN 기반 기보학습 및 강화학습을 이용한 인공지능 게임 에이전트
전영진(Youngjin Jeon),조영완(Youngwan Cho) 한국전기전자학회 2019 전기전자학회논문지 Vol.23 No.4
본 논문에서는 인공지능 오델로 게임 에이전트를 구현하기 위해 실제 프로기사들의 기보를 CNN으로 학습시키고 이를 상태의 형세 판단을 위한 근거로 삼아 최소최대탐색을 이용해 현 상태에서 최적의 수를 찾는 의사결정구조를 사용하고 이를 발전시키고자 강화학습 이론을 이용한 자가대국 학습방법을 제안하여 적용하였다. 본 논문에서 제안하는 구현 방법은 기보학습의 성능 평가 차원에서 가치평가를 위한 네트워크로서 기존의 ANN을 사용한 방법과 대국을 통한 방법으로 비교하였으며, 대국 결과 흑일 때 69.7%, 백일 때 72.1%의 승률을 나타내었다. 또한 본 논문에서 제안하는 강화학습 적용 결과 네크워크의 성능을 강화학습을 적용하지 않은 ANN 및 CNN 가치평가 네트워크 기반 에이전트와 비교한 결과 각각 100%, 78% 승률을 나타내어 성능이 개선됨을 확인할 수 있었다. This paper proposes a CNN architecture as value function network of an artificial intelligence Othello game agent and its learning scheme using reinforcement learning algorithm. We propose an approach to construct the value function network by using CNN to learn the records of professional players’ real game and an approach to enhance the network parameter by learning from self-play using reinforcement learning algorithm. The performance of value function network CNN was compared with existing ANN by letting two agents using each network to play games each other. As a result, the winning rate of the CNN agent was 69.7% and 72.1% as black and white, respectively. In addition, as a result of applying the reinforcement learning, the performance of the agent was improved by showing 100% and 78% winning rate, respectively, compared with the network-based agent without the reinforcement learning.
전영진(Youngjin Jeon),백기봉(Kibong Baek),임설(Seol Lim),서석훈(Suhkhoon Suh) 한국추진공학회 2011 한국추진공학회 학술대회논문집 Vol.2011 No.11
발사체나 유도탄의 자세제어를 위한 추력기 중 DCS용 추력발생장치 개발에 대하여 소개한다. 고체 추진제를 원료로 하는 DCS용 추력발생장치는 2축 제어를 기반으로 설계 되었으며 열구조해석 유동해석을 통해 상세설계를 진행하였다. 상세설계를 바탕으로 제작된 추력발생장치는 연소시험을 통해 성능을 입증한다. The development of the DCS thrust unit during the attitude control thruster of the launch vehicle and guided missile is introduced. The DCS thrust unit using solid propellants based on a two-axis control is designed and through the thermo-structural and flow analysis is designed in detail. The performance of the thrust unit based on the detail design is demonstrated through a combustion test.
ANN 기반 기보학습 및 Minimax 탐색 알고리즘을 이용한 오델로 게임 플레이어의 구현
전영진(Youngjin Jeon),조영완(Youngwan Cho) 대한전기학회 2018 전기학회논문지 Vol.67 No.12
This paper proposes a decision making scheme for choosing the best move at each state of game in order to implement an artificial intelligence othello game player. The proposed decision making scheme predicts the various possible states of the game when the game has progressed from the current state, evaluates the degree of possibility of winning or losing the game at the states, and searches the best move based on the evaluation. In this paper, we generate learning data by decomposing the records of professional players’ real game into states, matching and accumulating winning points to the states, and using the Artificial Neural Network that learned them, we evaluated the value of each predicted state and applied the Minimax search to determine the best move. We implemented an artificial intelligence player of the Othello game by applying the proposed scheme and evaluated the performance of the game player through games with three different artificial intelligence players.