http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.
변환된 중국어를 복사하여 사용하시면 됩니다.
다중 베이스라인 기반 질감 적응적 신뢰도 전파 스테레오 정합 기법
김진형,고윤호,Kim, JinHyung,Ko, Yun Ho 대한전자공학회 2013 전자공학회논문지 Vol.50 No.9
To acquire depth information using stereo vision, it is required to find correspondence points between stereo image pair. Conventional stereo vision systems usually use two cameras to get disparity data. Therefore, conventional stereo matching methods cannot resolve the tradeoff problem between accuracy and precision with respect to the length of baseline. Besides, belief propagation method, which is being used recently, has a problem that matching performance is dependent on the fixed weight parameter ${\lambda}$. In this paper, we propose a modified belief propagation stereo matching technique based on multi-baseline stereo vision to solve the tradeoff problem. The proposed method calculates EMAD(extended mean of absolute differences) as local evidence. And proposed method decides weight parameter ${\lambda}$ adaptively to local texture information. The proposed method shows higher initial matching performance than conventional methods and reached optimum solution in less iteration. The matching performance is increased about 4.85 dB in PSNR. 스테레오 비전을 사용하여 거리정보를 획득하기 위해서는 스테레오 영상 쌍에서 대응점을 찾는 스테레오 매칭이 이루어져야 한다. 기존의 스테레오 비전은 주로 두 대의 카메라를 사용해서 양안시차를 획득하였다. 따라서 기존의 방법들은 베이스라인의 길이에 따른 정확도와 정밀도 사이의 이율배반적 관계를 해소하지 못하였다. 또한 근래에 사용되는 신뢰도 전파 기법의 경우 고정된 가중치 ${\lambda}$에 의하여 스테레오 정합 성능이 크게 좌우되는 문제점이 있었다. 본 논문에서는 이율배반적 문제를 해소하기 위해 다중 베이스라인 스테레오 비전에 기반을 둔 개선된 신뢰도 전파 스테레오 정합 기법을 제안한다. 제안된 기법은 국부-명백성 함수로 EMAD(Extended mean of absolute difference)를 계산한다. 그리고 제안된 기법은 가중치 ${\lambda}$를 지역적 질감 정보에 적응적으로 결정한다. 제안된 기법은 기존 기법보다 더 높은 정합 성능을 보여주며 적은 반복을 통해 최적해에 도달하였다. 정합 성능이 PSNR수치상 약 4.85dB만큼 증가하였다.
DeepLabV3+를 이용한 이종 센서의 구름탐지 기법 연구
김미정,고윤호,Kim, Mi-Jeong,Ko, Yun-Ho 대한원격탐사학회 2022 大韓遠隔探査學會誌 Vol.38 No.5
위성영상에서의 구름 탐지 및 제거는 지형관측과 분석을 위해 필수적인 과정이다. 임계값 기반의 구름탐지 기법은 구름의 물리적인 특성을 이용하여 탐지하므로 안정적인 성능을 보여주지만, 긴 연산시간과 모든 채널의 영상 및 메타데이터가 필요하다는 단점을 가지고 있다. 최근 활발히 연구되고 있는 딥러닝을 활용한 구름탐지 기법은 4개 이하의 채널(RGB, NIR) 영상만을 활용하고도 짧은 연산시간과 우수한 성능을 보여주고 있다. 본 논문에서는 해상도가 다른 이종 데이터 셋을 활용하여 학습데이터 셋에 따른 딥러닝 네트워크 성능 의존도를 확인하였다. 이를 위해 DeepLabV3+ 네트워크를 구름탐지의 채널 별 특징이 추출되도록 개선하고 공개된 두 이종 데이터 셋과 혼합 데이터로 각각 학습하였다. 실험결과 테스트 영상과 다른 종류의 영상으로만 학습한 네트워크에서는 낮은 Jaccard 지표를 보여주었다. 그러나 테스트 데이터와 동종의 데이터를 일부 추가한 혼합 데이터로 학습한 네트워크는 높은 Jaccard 지표를 나타내었다. 구름은 사물과 달리 형태가 구조화 되어 있지 않아 공간적인 특성보다 채널 별 특성을 학습에 반영하는 것이 구름 탐지에 효과적이므로 위성 센서의 채널 별 특징을 학습하는 것이 필요하기 때문이다. 본 연구를 통해 해상도가 다른 이종 센서의 구름탐지는 학습데이터 셋에 매우 의존적임을 확인하였다. Cloud detection and removal from satellite images is an essential process for topographic observation and analysis. Threshold-based cloud detection techniques show stable performance because they detect using the physical characteristics of clouds, but they have the disadvantage of requiring all channels' images and long computational time. Cloud detection techniques using deep learning, which have been studied recently, show short computational time and excellent performance even using only four or less channel (RGB, NIR) images. In this paper, we confirm the performance dependence of the deep learning network according to the heterogeneous learning dataset with different resolutions. The DeepLabV3+ network was improved so that channel features of cloud detection were extracted and learned with two published heterogeneous datasets and mixed data respectively. As a result of the experiment, clouds' Jaccard index was low in a network that learned with different kind of images from test images. However, clouds' Jaccard index was high in a network learned with mixed data that added some of the same kind of test data. Clouds are not structured in a shape, so reflecting channel features in learning is more effective in cloud detection than spatial features. It is necessary to learn channel features of each satellite sensors for cloud detection. Therefore, cloud detection of heterogeneous sensors with different resolutions is very dependent on the learning dataset.
강인한 선별적 특징군 기반 단안 Visual Odometry
전현호(Hyun-Ho Jeon),김진형(Jin-Hyung Kim),고윤호(Yun-Ho Ko) 제어로봇시스템학회 2017 제어·로봇·시스템학회 논문지 Vol.23 No.12
This paper proposes a monocular visual odometry algorithm based on Robust Aged Feature Set (RAFSet). Conventional visual odometry algorithms generally adopt optimization algorithms to resolve tracking and matching errors in motion estimation caused by noise or occlusion. However, continuous failures in motion estimation can lead to extreme states that cannot be resolved through this optimization algorithm. We propose the RAFSet framework that effectively manages and controls the detected features of an image sequence for motion estimation to avoid such failures in motion estimation and estimate more robust motion information. A RAFSet is composed of Robust Aged Features (RAFs) that are detected or tracked from each image frame. Each RAF has an age value representing its reliability degree as a robust feature and several pieces of useful information for motion estimation. The proposed RAFSet framework adjusts the age value of each RAF effectively and only uses RAFs with a high age value to attain better motion estimation results. Experimental results for a popular dataset confirm that the motion estimation accuracy is improved using the proposed RAFSet framework.