http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.
변환된 중국어를 복사하여 사용하시면 됩니다.
Crowd Activity Recognition using Optical Flow Orientation Distribution
( Jinpyung Kim ),( Gyujin Jang ),( Gyujin Kim ),( Moon-hyun Kim ) 한국인터넷정보학회 2015 KSII Transactions on Internet and Information Syst Vol.9 No.8
In the field of computer vision, visual surveillance systems have recently become an important research topic. Growth in this area is being driven by both the increase in the availability of inexpensive computing devices and image sensors as well as the general inefficiency of manual surveillance and monitoring. In particular, the ultimate goal for many visual surveillance systems is to provide automatic activity recognition for events at a given site. A higher level of understanding of these activities requires certain lower-level computer vision tasks to be performed. So in this paper, we propose an intelligent activity recognition model that uses a structure learning method and a classification method. The structure learning method is provided as a K2-learning algorithm that generates Bayesian networks of causal relationships between sensors for a given activity. The statistical characteristics of the sensor values and the topological characteristics of the generated graphs are learned for each activity, and then a neural network is designed to classify the current activity according to the features extracted from the multiple sensor values that have been collected. Finally, the proposed method is implemented and tested by using PETS2013 benchmark data.
Kim, Chanhoon,Song, Gyujin,Luo, Langli,Cheong, Jun Young,Cho, Su-Ho,Kwon, Dohyung,Choi, Sungho,Jung, Ji-Won,Wang, Chong-Min,Kim, Il-Doo,Park, Soojin American Chemical Society 2018 ACS NANO Vol.12 No.8
<P>Nanowires (NWs) synthesized <I>via</I> chemical vapor deposition (CVD) have demonstrated significant improvement in lithium storage performance along with their outstanding accommodation of large volume changes during the charge/discharge process. Nevertheless, NW electrodes have been confined to the research level due to the lack of scalability and severe side reactions by their high surface area. Here, we present nanoporous Ge nanofibers (NPGeNFs) having moderate nanoporosity <I>via</I> a combination of simple electrospinning and a low-energetic zincothermic reduction reaction. In contrast with the CVD-assisted NW growth, our method provides high tunability of macro/microscopic morphologies such as a porosity, length, and diameter of the nanoscale 1D structures. Significantly, the customized NPGeNFs showed a highly suppressed volume expansion of less than 15% (for electrodes) after full lithation and excellent durability with high lithium storage performance over 500 cycles. Our approach offers effective 1D nanostructuring with highly customized geometries and can be extended to other applications including optoelectronics, catalysis, and energy conversion.</P> [FIG OMISSION]</BR>
Estimation of Crowd Density in Public Areas Based on Neural Network
( Gyujin Kim ),( Taeki An ),( Moonhyun Kim ) 한국인터넷정보학회 2012 KSII Transactions on Internet and Information Syst Vol.6 No.9
There are nowadays strong demands for intelligent surveillance systems, which can infer or understand more complex behavior. The application of crowd density estimation methods could lead to a better understanding of crowd behavior, improved design of the built environment, and increased pedestrian safety. In this paper, we propose a new crowd density estimation method, which aims at estimating not only a moving crowd, but also a stationary crowd, using images captured from surveillance cameras situated in various public locations. The crowd density of the moving people is measured, based on the moving area during a specified time period. The moving area is defined as the area where the magnitude of the accumulated optical flow exceeds a predefined threshold. In contrast, the stationary crowd density is estimated from the coarseness of textures, under the assumption that each person can be regarded as a textural unit. A multilayer neural network is designed, to classify crowd density levels into 5 classes. Finally, the proposed method is experimented with PETS 2009 and the platform of Gangnam subway station image sequences.
무인항공기 RGB 영상을 사용한 보간법 기반의 작물 높이 예측 알고리즘 개선 연구
장규진 ( Gyujin Jang ),김재영 ( Jaeyoung Kim ),김동욱 ( Dong-wook Kim ),정용석 ( Yongsuk Chung ),문희창 ( Hee-chang Moon ),김학진 ( Hak-jin Kim ) 한국농업기계학회 2021 한국농업기계학회 학술발표논문집 Vol.26 No.2
작물의 높이는 생육, 잠재 생산량, 작물 도복 지역을 평가하는 중요한 변수이며, RGB 항공 영상 기반 structure from motion (SfM) 알고리즘 적용 사진 측량 기술을 이용하여 예측이 가능하다. 작물의 높이는 작물이 존재하는 고도 모델인 Digital Surface Model (DSM)에서 작물이 없는 지형의 고도 모델인 Digital Terrain Model (DTM)을 빼주어 계산할 수 있다. DTM은 작물이 없을 때의 영상을 촬영하여 생성하지만 촬영이 불가한 경우엔 작물 근처 맨땅의 고도 정보에 보간법을 적용하여 생성할 수 있다. 기존 연구에선 맨땅의 고도 정보는 작물이 없는 지역에 수동으로 점을 생성하는 방식으로 취득되어왔지만 오랜 시간이 소요되고 효율적이지 못하다. 본 연구에서는 수동으로 고도 정보를 얻었던 방식을 개선한 알고리즘을 개발하였다. 제주대학교 케나프 실험 포장지에서 RGB 카메라가 장착된 무인항공기로 영상을 얻었고, 상용 소프트웨어 (Pix4DCapture, Pix4D SA, Swiss)를 사용하여 영상을 정합하였다. 생성된 DSM에서 작물을 제거하고 남은 지역에 무작위적으로 점을 생성하여 고도 정보를 추출하였다. 추출된 고도 정보에 보간법(Kriging)을 적용하여 DTM을 생성하고 작물 높이를 계산하였다. 개발한 알고리즘은 작물이 부재한 시기의 영상을 통해 생성한 DTM을 이용한 방법과 1:1로 비교하여 높이 예측 성능을 평가하였다. 결정계수(R<sup>2</sup>)는 0.9124, 제곱근 편차(RMSE)는 6.98 cm로 관측되어 기존 방법보다 쉽고 빠르게 높은 예측 성능을 보일 수 있었다.
높이 보정 구조물을 이용한 무인항공기(UAV)와 RGB 카메라 기반 케나프의 높이 측정 연구
장규진 ( Gyujin Jang ),김재영 ( Jaeyoung Kim ),김동욱 ( Dongwook Kim ),정용석 ( Yongsuk Chung ),김학진 ( Hakjin Kim ),문희창 ( Hee-chang Moon ) 한국농업기계학회 2019 한국농업기계학회 학술발표논문집 Vol.24 No.2
케나프는 섬유, 사료 및 다양한 바이오 소재용 식물 자원으로 주목받고 있으며 최근 국내에서 안정적인 생산을 위한 육종 연구가 활발히 진행되고 있다. 육종을 위해선 표현형 정보를 대량으로 신속하게 획득하고 이를 분석하는 것이 필수적이다. 이를 위해 최근 비파괴적이며 신속한 정보 취득이 가능한 무인항공기(UAV) 기반 원격 탐사 기법이 이용된다. 케나프의 높이 정보는 우수한 식물 자원으로 평가하는 중요한 변수이며, Structure from Motion(SfM) 알고리즘 기반 사진 측량 기술을 활용 Digital Surface Model을 제작하여 케나프의 높이 정보 취득이 가능하다. 케나프와 같이 얇고 긴 작물들은 정확한 높이 정보 취득을 위해 고해상도 영상이 요구되며 이를 위해 고해상도 센서 장착 및 UAV 기체의 저고도 영상 취득이 필요하다. 하지만, 고해상도 센서는 높은 경제적인 비용을 요구하고 UAV의 제한적인 비행시간은 저고도 비행 시 영상 취득 면적을 감소시킨다. 본 연구는 높이 표준 구조물을 촬영 포장에 설치하여 케나프의 높이 측정 정확도를 향상시키고자 하였다. 실험은 제주특별자치도 제주시 제주대학교 실험 포장에서 RGB 카메라가 장착된 상용 UAV 기체(Mavic Zoon 2, DJI, China)로 진행되었으며, 40m 높이에서 90% 오버랩, 최저속도(약 1m/s)로 설정(Pix4DCapture, Pix4D SA, Swiss)하여 영상을 촬영하였다. 높이 보정을 위해 5개의 실제 높이 정보(최대 높이 약 150cm)를 제공하는 구조물을 제작하여 실험 필드에 총 4개 설치하였다. 구조물로부터 얻은 실제 높이와 항공영상 기반 예측 높이로 선형회귀식을 개발하여 항공영상 기반으로 예측한 케나프 높이 정보에 적용하였으며, 케나프 높이 평균 제곱근 편차(RMSE)는 45.44cm로 측정되었다.