http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.
변환된 중국어를 복사하여 사용하시면 됩니다.
후방 카메라 영상과 3차원 도로지도를 이용한 이동차량의 위치인식
최성인,박순용,Choi, Sung-In,Park, Soon-Yong 대한전자공학회 2013 전자공학회논문지 Vol.49 No.11
본 논문에서는 실외 도로환경에서 주행하는 차량의 위치를 추정하기 위한 비쥬얼 오도메트리 기술을 제안한다. 제안하는 방법은 운전자의 이동계획에 따라 차량의 초기위치에서 원거리에 위치한 특정 목적지를 방문한 후 지나온 경로를 따라 다시 초기위치로 정확하게 복귀해야 하는 차량의 위치인식을 위해 사용된다. 위치인식에는 차량 전방의 3차원 정보획득을 위한 스테레오 카메라와 후방의 영상을 획득하는 단일 카메라를 사용한다. 차량이 목적지를 향해 순방향 주행할 때는 전방 스테레오 비쥬얼 오도메트리(stereo visual odometry)를 이용하여 이동차량의 위치를 추정하고 동시에 도로 및 주변 환경에 대한 3차원 전역지도를 그래프 구조로 생성한다. 차량이 목적지에 도달하여 복귀할 때는 후방의 단일 카메라에서 획득한 2차원 영상과 전역지도를 바탕으로 모노 비쥬얼 오도메트리(monocular visual odometry)로 위치를 추정한다. 복귀하는 차량의 위치를 정확하게 추정하기 위해서는 효과적인 전역지도의 노드 탐색방법이 요구된다. 후방 카메라의 영상 특징과 전역지도의 각 노드의 영상 특징을 정합하고 지도에 저장된 3차원 좌표를 이용하여 차량의 위치를 추정하였다. 또한 3차원 위치추정에 성공한 이전노드들의 정보를 바탕으로 매 영상 프레임마다 적응적으로 탐색영역을 확장하거나 줄이도록 하였다. 두 개의 서로 다른 경로에 대한 실험을 통하여 제안하는 방법의 성능을 검증하였다. In this paper, we propose a new visual odometry technique by combining a forward-looking stereo camera and a backward-looking monocular camera. The main goal of the proposed technique is to identify the location of a moving vehicle which travels long distance and comes back to the initial position in urban road environments. While the vehicle is moving to the destination, a global 3D map is updated continuously by a stereo visual odometry technique using a graph theorem. Once the vehicle reaches the destination and begins to come back to the initial position, a map-based monocular visual odometry technqieu is used. To estimate the position of the returning vehicle accurately, 2D features in the backward-looking camera image and the global map are matched. In addition, we utilize the previous matching nodes to limit the search ranges of the next vehicle position in the global map. Through two navigation paths, we analyze the accuracy of the proposed method.
인공지능 : 다중 평면의 3차원 모서리를 이용한 레이저 거리센서 및 카메라의 정밀 보정
최성인 ( Sung In Choi ),박순용 ( Soon Yong Park ) 한국정보처리학회 2015 정보처리학회논문지. 소프트웨어 및 데이터 공학 Vol.4 No.4
레이저 거리센서와 비전 카메라의 정보를 융합하기 위해서는 두 센서 사이의 상대적인 위치관계를 설명하는 외부 파라미터를 정확하게 보정하는 것이 필수적이다. 본 논문에서는 레이저 거리센서와 카메라 좌표계 간의 외부 파라미터를 기존에 알려진 방법보다 쉬우면서도 정확하게 획득할 수 있는 새로운 보정 방법을 제안하고자 한다. 본 논문에서 제안한 방법의 접근법은 레이저 거리센서로 획득한 3차원 구조물의 모서리 정보를 영상으로 투영하였을 때 반드시 하나의 직선상에 존재해야 한다는 것을 제약조건으로 한다. 이러한 제약조건을 만족하는 3차원 기하모델을 제시하고 이 모델의 에너지 함수를 최소화하기 위한 수치적 해법을 소개한다. 또한 높은 정밀도의 보정을 위하여 레이저 거리정보 및 카메라 영상의 획득 과정에 대해서도 상세히 설명한다. 실험을 통해 제안된 방법의 성능이 기존의 방법에 비하여 보다 높은 정밀도를 보임을 확인할 수 있었다. For data fusion of laser range finder (LRF) and vision camera, accurate calibration of external parameters which describe relative pose between two sensors is necessary. This paper proposes a new calibration method which can acquires more accurate external parameters between a LRF and a vision camera compared to other existing methods. The main motivation of the proposed method is that any corner data of a known 3D structure which is acquired by the LRF should be projected on a straight line in the camera image. To satisfy such constraint, we propose a 3D geometric model and a numerical solution to minimize the energy function of the model. In addition, we describe the implementation steps of the data acquisition of LRF and camera images which are necessary in accurate calibration results. In the experiment results, it is shown that the performance of the proposed method are better in terms of accuracy compared to other conventional methods.
최성인(Sung-In Choi),박순용(Soon-Yong Park),김준(Jun Kim),박용운(Yong-Woon Park) 한국정보과학회 2008 한국정보과학회 학술발표논문집 Vol.35 No.1
본 논문에서는 GPU의 성능을 이용하여 다시점 거리 영상을 실시간으로 정합하는 3차원 온라인 시스템을 제안한다. 제안한 시스템은 거리영상의 정교한 정합을 위해 IPP 알고리즘을 사용하였으며, 최신 GPU 프로그래밍 기법으로 각광받고 있는 CUDA를 이용하여 정합 알고리즘의 연산비용이 큰 부분에 해당하는 투영과 변환의 반복 부분을 수행하였다. 스테레오 기반 휴대용 거리센서에서 320×240 거리영상을 획득하여 정합 알고리즘을 수행한 결과, 초당 5장의 거리영상을 정합할 수 있었다. 제안한 온라인 시스템은 실시간 3차원 모델 복원 기술이 필요한 로봇위치 인식, 주행용 비전 기술, 문화재 원형 복원 등의 분야에서 활용될 수 있을 것이다.
최성인(Sung-In Choi),박순용(Soon-Yong Park) 대한전자공학회 2014 전자공학회논문지 Vol.51 No.7
본 논문에서는 서로 다른 광학적 특성을 가지는 3차원 카메라의 내부 변수 값을 자동으로 결정하여 스테레오 영상의 심도를 일치시키는 기술을 제안한다. 3차원 카메라에서 획득한 스테레오 영상에서 물체의 크기가 다르거나 심도의 차이가 큰 경우에 사람의 눈은 시각적 피로감을 느끼게 된다. 획득된 좌, 우 영상에서 물체의 크기가 동일하도록 카메라의 줌(zoom)을 LUT(Look Up Table)을 이용하여 일치시키고 피사체까지의 거리에 따라 전방심도와 후방심도의 범위를 결정한다. 이들을 이용하여 렌즈의 F-값을 결정하고 카메라의 광학 특성값을 자동으로 조절함으로써 스테레오 영상의 심도를 일치시킨다. 주-부 방식의 3차원 카메라와 GUI 소프트웨어를 통한 실험을 통하여 제안한 방법으로 스테레오 영상의 심도를 자동으로 일치시킬수 있음을 보였다. In this paper, we propose a DOF (Depth of Field) correction technique by determining the values of the internal parameters of a 3-D camera which consists of stereoscopic cameras of different optical properties. If there is any difference in the size or the depth range of focused objects in the left and right stereoscopic images, it could cause visual fatigue to human viewers. The object size of in the stereoscopic image is corrected by the LUT of zoom lenses, and the forward and backward DOF are corrected by the object distance. Then the F-numbers are determined to adjust the optical properties of the camera for DOF correction. By applying the proposed technique to a main-sub type 3-D camera using a GUI-based DOF simulator, the DOF of the camera is automatically corrected.
Stereo Vision-Based 3D Pose Estimation of Product Labels for Bin Picking
Udaya Wijenayake(우다야 위제나야카),Sung-In Choi(최성인),Soon-Yong Park(박순용) 제어로봇시스템학회 2016 제어·로봇·시스템학회 논문지 Vol.22 No.1
In the field of computer vision and robotics, bin picking is an important application area in which object pose estimation is necessary. Different approaches, such as 2D feature tracking and 3D surface reconstruction, have been introduced to estimate the object pose accurately. We propose a new approach where we can use both 2D image features and 3D surface information to identify the target object and estimate its pose accurately. First, we introduce a label detection technique using Maximally Stable Extremal Regions (MSERs) where the label detection results are used to identify the target objects separately. Then, the 2D image features on the detected label areas are utilized to generate 3D surface information. Finally, we calculate the 3D position and the orientation of the target objects using the information of the 3D surface.