http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.
변환된 중국어를 복사하여 사용하시면 됩니다.
실내환경 복원을 위한 다시점 카메라로 획득된 부분적 3차원 점군의 정합 기법
김세환,우운택,Kim Sehwan,Woo Woontack 대한전자공학회 2005 電子工學會論文誌-CI (Computer and Information) Vol.42 No.3
본 논문에서는 실내환경의 3차원 복원을 위해 다시점 카메라부터 획득된 부분적인 3차원 점군에 대한 정합 기법을 제안한다. 일반적으로, 기존의 정합 방법들은 많은 계산량을 요하며, 정합하는데 많은 시간이 소요된다 또한, 상대적으로 정밀도가 낮은 3차원 점군에 대해서는 정합이 어렵다. 이러한 문제점을 해결하기 위해 투영 기반 정합 방법을 제안한다. 첫 번째, 시간적 특성을 기반으로 변화량이 큰 3차원 점들을 제거하고, 공간적 특성을 이용하여 현재 화소의 주변 3차원 점을 참조하여 빈 영역을 채움으로써 깊이 영상 정제 과정을 수행한다. 두 번째, 연속된 두 장면에서의 3차원 점군을 동일한 영상 평면으로 투영하고, 두 단계 정수 매핑을 적용한 후 수정된 KLT (Kanade-Lucas-Tomasi) 특징 추적기를 사용해 대응점을 찾는다. 그리고 적응적 탐색 영역에 기반하여 거리 오차를 최소화함으로써 정밀한 정합을 수행한다. 마지막으로, 대응되는 점들에 대한 색을 참조하여 최종적인 색을 계산하고, 위의 과정을 연속된 장면에 적용함으로써 실내환경을 복원한다. 제안된 방법은 대응점을 2차원 영상 평면에서 찾음으로써 계산의 복잡도를 줄이며, 3차원 데이터의 정밀도가 낮은 경우에도 정합이 효과적이다. 또한, 다시점 카메라를 이용함으로써 몇 장면에 대한 색과 깊이 영상만으로도 실내환경의 3차원 복원이 가능하다. In this paper, a registration method is presented to register partial 3D point clouds, acquired from a multi-view camera, for 3D reconstruction of an indoor environment. In general, conventional registration methods require a high computational complexity and much time for registration. Moreover, these methods are not robust for 3D point cloud which has comparatively low precision. To overcome these drawbacks, a projection-based registration method is proposed. First, depth images are refined based on temporal property by excluding 3D points with a large variation, and spatial property by filling up holes referring neighboring 3D points. Second, 3D point clouds acquired from two views are projected onto the same image plane, and two-step integer mapping is applied to enable modified KLT (Kanade-Lucas-Tomasi) to find correspondences. Then, fine registration is carried out through minimizing distance errors based on adaptive search range. Finally, we calculate a final color referring colors of corresponding points and reconstruct an indoor environment by applying the above procedure to consecutive scenes. The proposed method not only reduces computational complexity by searching for correspondences on a 2D image plane, but also enables effective registration even for 3D points which have low precision. Furthermore, only a few color and depth images are needed to reconstruct an indoor environment.
전진우(Jin-woo Jeon),우운택(Woontack Woo) 한국HCI학회 2017 한국HCI학회 학술대회 Vol.2017 No.2
본 논문은 AR 환경에서 이용 가능한 실내 공간내에서 공간과 평면을 분리하여 인식하는 평면 추정방법을 제안한다. 깊이 영상 카메라로부터 지역 법선벡터를 계산한 후 방위, 고도, 거리 정보를 이용하여 비슷한 법선 벡터끼리 군집화한 후 평면을 추정한다. 그 후 평면 영역들로부터 객체 영역을 분리한다. 이 정보를 이용하여 3 차원 공간에서 공간 영역과 물체영역을 분리하여 증강 현실 분야에서 독립적인 응용이 가능하다.
디지로그북에서의 비전 기반 실시간 페이지 인식 및 마커리스 추적 방법
김기영(Kiyoung Kim),우운택(Woontack Woo) 한국HCI학회 2009 한국HCI학회 학술대회 Vol.2009 No.2
Many AR (Augmented Reality) applications have been interested in a marker-less tracking since the tracking methods give camera poses without attaching explicit markers. In this paper, we propose a new marker-less page recognition and tracking algorithm for an AR book application such as DigilogBook. The proposed method only requires orthogonal images of pages, which need not to be trained for a long time, and the algorithm works in real-time. The page recognition is done in two steps by using SIFT (Scale Invariant Feature Transform) descriptors and the comparison evaluation function. And also, the method provides real-time tracking with 25fps ~ 30fps by separating the page recognition and the frame-to-frame matching into two multi-cores. The proposed algorithm will be extended to various AR applications that require multiple objects tracking. 마커리스 추적 기술은 명시적 마커의 부착없이 실시간으로 카메라의 자세를 획득하게 해, 증강 현실 애플리케이션에서의 활용성이 높아지고 있다. 본 논문에서는 마커리스 증강 현실 책인 디지로그북에 적합한 새로운 비전기반 페이지 인식 및 추적 방법을 제안한다. 제안된 방법은 페이지의 직교 영상만을 요구하며, 긴 학습 과정이 필요없고 실시간으로 동작한다. 실시간 페이지 인식은 페이지의 비교 우선 순위 평가 함수와 SIFT (Scale Invariant Feature Transform) 설명자를 활용하여 두 단계로 수행된다. 또한, 멀티 코어 프로그래밍을 이용하여 프레임간 특징점 추적과 페이지 인식을 분리해, 25fps ~ 30fps 의 카메라 추적 실시간성을 보장한다. 제안된 알고리즘은 향후 다수의 객체를 추적하는 증강 현실 애플리케이션에 확장될 수 있다.
컨텍스 기반 상호작용을 위한 ubi - UCAM 과 NAVER 인터페이스
이석희(Seokhee Lee),우운택(Woontack Woo) 한국정보과학회 2003 한국정보과학회 학술발표논문집 Vol.30 No.2Ⅱ
본 논문은 가상세계에 몰입감과 현실감을 더욱 증가 시키고 현실세계에 가상적인 요소를 자연스럽게 접목시키기 위하여 VR 기술과 유비 쿼터스 컴퓨팅의 컨텍스트 인식 기술를 접목시키는 프레임워크를 제안한다. 현재 KIST에서 개발중인 NAVERLIB은 사용자가 쉽게 가상환경을 구현할 수 있게 하고, 광주 과학기술원에서 개발중인 ubi-UCAM은 현실세계에서 산재된 센서들로 부터 컨텍스트 취합/분석 하여 사용자 중심의 서비스를 제공하여줄 수 있게 한다. 본 논문에서는 그러한 독립된 두 시스템을 통합하는 방법의 하나로 XML기반 Context Service Manager와 Context Service Server로 이루어진 인터페이스를 제안한다. 본 프레임워크는 사용자들의 요구를 정확히 파악하여 사용자 중심의 차별화된 상호 작용을 제공할 수 있다는 장점이 있다. 따라서, 사용자에 따라 다양한 메타포가 정의될 수 있는 가상 유적지 답사나 가상 교육 시스템 같은 응용에 적용될 수 있다.