http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.
변환된 중국어를 복사하여 사용하시면 됩니다.
시각적으로 유발되는 어지럼증 검출을 위한 동영상의 분석 및 분류
최민국(Min-Kook Choi),이채원(Chae-Won Lee),이상철(Sang-Chul Lee) 한국정보과학회 2011 정보과학회논문지 : 소프트웨어 및 응용 Vol.38 No.5
본 논문은 프레임의 시간에 따른 영상의 변화를 기술해 주는 옵티컬 플로우 벡터 측정을 기반으로, 시각적으로 야기되는 어지럼증(visually induced motion sickness, VIMS)에 영향을 미치는 샷의 전역 움직임을 촬영 기법에 따라 분류하는 알고리즘을 제시하였다. 전역 움직임 분류를 위해 1차 베이지안 분류기를 통해 동영상의 옵티컬 플로우 벡터에 대한 영역 기반 통계적 분석 방법을 적용하여 입력 영상을 샷 단위의 전역 움직임과 지역 움직임으로 분류하고, 이후 전역 움직임으로 판명된 샷들에 대해 기존 특징들과 추가된 특징들을 기반으로 2차 베이지안 분류기를 통한 전역 움직임의 촬영 기법 분류를 수행하였다. 이를 달성하기 위하여 자동화된 알고리즘을 활용한 샷 경계 검출 이후, 동영상의 시공간적 특징 추출을 위한 영역별 옵티컬 플로우 벡터의 PCA(Principal Component Analysis)를 통하여 학습을 위한 특징 벡터를 추출하고, 동영상 콘텐츠의 시간적 특징을 효율적으로 서술하기 위한 대표 플로우 벡터를 추출 및 대표 플로우 간의 히스토그램 기반의 특징 추출을 수행하였다. 최종적으로 입력으로 주어진 동영상은 핸드헬드로 촬영된 기법과 팬/틸트에 의해 발생하는 좌우회전 및 줌 기법으로 촬영된 영상으로 분류하였다. 최종적으로 각 촬영 기법에 대한 전역 움직임과 전역과 지역 움직임이 동시에 일어나는 총 6가지 경우로 분류하여, VIMS 유발 원인 분석 및 실험을 위한 자동화된 전역 움직임 분류를 달성 하였다. Visually Induced Motion Sickness (VIMS) refers to motion sickness or vertigo when perceiving visual information that could be occurred while watching videos, for example, a video recording with strong motions of a camera. In order to assist such motion analyses, an automatic method analyzing the videos with various shooting techniques is required. Since video analysis requires both spatial features and temporal features, various algorithms for extracting robust spatio-temporal features have been studied in many video classification methods. In this paper, we propose a new method to classify various videos with different shooting techniques based on multi-layer Bayesian classification with spatio-temporal features using optical flow vectors. To classify the shooting techniques recorded with global motions, the first layer of the Bayesian classifier categorizes the videos into the ones with global motions and the others with local motions, based on PCA (Principal Component Analysis) with extracted features in different regions. Then, the second layer of the Bayesian classifier performs further classification on different shooting methods in temporal domain. The second layer is based on histogram analysis on the temporal mean flows. In our experiments we show the results of the categorization from the first classification (global/local motion), and from the second classification (6 kinds of video according to the shooting techniques).
준 지도 학습 기반의 공용 데이터셋을 활용한 물체 인식 네트워크 학습 연구
최민국(Min-Kook Choi ),박재형(Jaehyeong Park),이진희(Jin-Hee Lee),원웅재(Woong Jae Won),김진철(Jincheol Kim),권순(Soon Kwon) 대한전자공학회 2018 대한전자공학회 학술대회 Vol.2018 No.6
Recently, the accuracy of the visual recognition techniques using the deep learning has been greatly improved due to the enhancement of the training strategy. We introduces a case study in which deep learning based object recognition network is learned by using public dataset and applied to autonomous driving application. In this work, we used MS-COCO detection 2017 dataset for training and evaluation of object recognition network. In order to improve the generalization performance, we applied a semi-supervised training using co-occurrence matrix analysis to deformable convolutional neural networks (D-ConvNets). We can confirm the improvement of the quantitative performance using the object recognition network with the proposed semi-supervised learning (SSL) technique, and it was confirmed qualitatively encouraging results in various situations in the real vehicle environment.
영역별 투영 히스토그램 매칭 및 선형 회귀모델 기반의 차량 운행 영상의 안정화 기술 개발
허유정(Yu-Jung Heo),최민국(Min-Kook Choi),이현규(Hyun-Gyu Lee),이상철(Sang-Chul Lee) 한국방송·미디어공학회 2014 한국방송공학회 학술발표대회 논문집 Vol.2014 No.6
본 논문에서는 블랙박스 혹은 운전석에 장착된 카메라로부터 얻어진 차량 영상에 대한 영역별 수직히스토그램 매칭 및 선형 회귀분석 모델(linear regression model)을 활용한 강건한 차량 운행 동영상의 안정화(video stabilization) 기법을 제안한다. 동영상 안정화 기법은 영상의 흔들림 보정뿐 아니라 동영상 내 강건한 특징점 추적 및 매칭을 위한 이전의 전처리 과정으로 적용된다. 일반적으로 촬영 과정에서 많은 떨림이 포함될 수 있는 야외 CCTV 영상이나 손으로 들고(hand-held) 촬영된 동영상에 대한 흔들림 보정 등에 적용되고 있으나 영상 내 특징점이 지속적으로 변하고 영상의 변화 정도가 매우 심한 차량 운행 동영상에서는 적용된 사례가 드물다. 본 연구에서는 일반적인 비디오 안정화 기술이 적용되기 어려운 차량 운행 동영상에 대하여 수직 투영 히스토그램 매칭 및 선형 회귀분석 모델 기반의 안정화 기법을 제안한다. 제안된 기법은 입력영상에 대한 영역별 수직 투영 히스토그램 매칭을 수행하고 선형 회귀모델을 통해 영상에 나타나는 수직 및 회전이동 변환을 선형 근사하여 시간 영역 상의 입력 영상에 대한 안정화를 달성한다. 제안 방법의 검증을 위해 블랙박스로 촬영된 실제 동영상에 동영상 안정화 기술을 적용하였으며, 운행 중 불규칙한 노면으로 인한 영상의 흔들림이 효과적으로 제거되는 것을 확인할 수 있었다.
시각적으로 유발되는 어지럼증(VIMS)에 따른 신체적 반응 및 유발 요인 분석
이채원(Chae-Won Lee),최민국(Min-Kook Choi),김규성(Kyu-Sung Kim),이상철(Sang-Chul Lee) 한국HCI학회 2014 한국HCI학회 논문지 Vol.9 No.1
본 논문은 시각 정보로 인해 유발되는 어지럼증(Visually Induced Motion Sickness, VIMS)에 따른 뇌전도(EEG)와 활력 징후(vital sign)의 신체적 반응 및 유발 요인에 대한 분석에 대한 연구이며, 피험자 상태 기반의 동영상 모션 보정을 위한 선행 연구로 수행되었다. 이를 위해 어지럼증을 유발하는 동영상을 제작하여 총 11명의 피험자들에 대한 설문조사와 실험을 수행하였다. 동영상 제작을 위해 모션 벡터 추출 기법인 옵티컬 플로우(optical flow) 측정법을 이용하여 VIMS 유발 동영상으로부터 전역 모션을 추출하고 이를 모션이 없는 동영상에 적용하여 인위적인 모션을 갖는 동영상을 제작하였다. 실험 동영상은 콘텐츠 종류에 따라 영화, 텍스트 두 종류로 분류되며, 적용된 모션 강도에 따라 콘텐츠 별 세 편씩 총 여섯 편의 실험 동영상을 제작하였다. 피험자가 시청하는 동안 간이 뇌전도 측정기를 이용하여 실시간으로 뇌전도를 측정하였고, 이와 동시에 전자혈압계를 이용해 최고/최저 혈압과 맥박을 주기적으로 측정하였다. 측정된 뇌전도 신호는 채널 별 신호 간 상관도(correlation) 연산을 통해 얻어진 Distance Map(DM)을 활용하여 분석하였으며, 측정된 신체 반응 지수와 모션 강도 및 설문조사 결과와 관계에 대한 정량적 분석 및 분류를 수행하였다. 결과 분석을 통해 동영상의 모션 강도와 동영상 시청 전후의 신체 반응의 변화 정도에 따라 모션과 피험자가 느끼는 어지럼에 대한 상관관계를 분석하여 피험자를 특정한 그룹으로 분류할 수 있었다. We present an experimental framework to analyze the physical reactions and causal factors of Visually Induced Motion Sickness (VIMS) using electroencephalography (EEG) signals and vital signs. We studied eleven subjects who are voluntarily participated in the experiments and conducted online and offline surveys. In order to simulate videos including global motions that could cause the motion sickness, we extracted global motions by optical flow estimation method from hand-held captured video recordings containing intense motions. Then, we applied the extracted global motions to our test videos with action movies and texts. Each genre of video includes three levels of different motions depending on its intensity. EEG signal and vital sign that were measured by a portable electrocorticography device and an electronic monometer in real time while the subjects watch the videos including ones with the extracted motions. We perform an analysis of the EEG signals using Distance Map(DM) calculated by correlation among each channel of brain signal. Analysis using the vital signs and the survey results is also performed to obtain relationship between the VIMS and causal factors. As a result, we clustered subjects into three groups based on the analysis of the physical reaction using the DM and the correlation between vital sign and survey results, which shows high relationships between the VIMS and the intensity of motions.
원웅재(Woong-Jae Won),김태훈(Tae Hun Kim),최민국(Min-Kook Choi),권순(Soon Kown) 한국자동차공학회 2018 한국자동차공학회 부문종합 학술대회 Vol.2018 No.6
Real-time driving scene understanding system have been received more attention from may autonomous driving research community as following the advent of deep learning technology. In this paper, we proposed real-time multi-object detection model based on Convolution Neural Network(CNN) deep learning model. In order to reduce computational load for multi-scale object detection, we consider Rezoom layer rather than conventional methods which are based on muti-scale template(Anchors) and feature approach. Moreover, in order to enhance of detection performance for occluded/small size object in driving road scene, we consider simple aggregation layer which can preserve small receptive field feature information in deep CNN feature domain. Experimental results for KITTI datasets show that the proposed model can successfully detect multi-objects in road driving scene.
영상기반의 End-to-end 자율주행 알고리즘 개발을 위한 데이터셋 및 평가환경 구축
권순(Soon Kwon),박재형(Jaehyeong Park),정희철(Heechul Jung),정지훈(Jihun Jung),최민국(Min-Kook Choi),Iman R. T.(Iman R. Tayibnapis),이진희(Jin-Hee Lee),원웅재(Woong-Jae Won),김광회(Kwang-Hoe Kim),윤성훈(Sung-Hoon Youn),김태훈(Tae 대한전자공학회 2018 대한전자공학회 학술대회 Vol.2018 No.6
In this paper, we constructed a public dataset for training and evaluation of an algorithm model for Vision based Autonomous Steering Control(V-ASC), and built a benchmark environment to analyze and provide qualitative and quantitative evaluation results. We also developed a baseline V-ASC model based on the handcrafted feature and the newly proposed convolutional neural network (CNN) based end-to-end driving model to verify the evaluation environment of the constructed dataset and simulator. Through the comparative evaluation between the models, we confirmed that the proposed evaluation framework is effective for performance analysis of V-ASC.