http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.
변환된 중국어를 복사하여 사용하시면 됩니다.
이영식,배철수,Lee Young-Sik,Bae Cheol-Soo 한국정보통신학회 2005 한국정보통신학회논문지 Vol.9 No.3
본 논문은 지능형 교통시스템(intelligent transportation system)에 적용될 수 있는 방안으로써, 안정된 영상신호를 제공하여 자동으로 차량안의 승객을 탐지하는 시스템을 제안한다. 제안된 시스템은 높은 대역(upper-band)과 낮은 대역(lowe.-band)의 스펙트럼 강도를 조합하는 근적외선(Near-Infrared) 카메라를 이용하여 안정된 영상신호를 획득할 수 있었으며, 실험결과를 통해 제안된 방법의 효율성을 입증할 수 있었다. This paper presents an active vision system for ITS(intelligent transportation system : ITS). We have described a novel method to provide high quality imaging signals to a system that will perform passenger detection and counting in the roadway. The method calls for two co-registered near-infrared cameras with spectral sensitivity above (upper-band) and below (lower-band) the quality of the signal remains. We propose a novel system based on fusion of near-infrared imaging signals and we demonstrate its adequacy with theoretical and experimental arguments.
이영식,배철수 한국정보통신학회 2003 한국정보통신학회논문지 Vol.7 No.1
한정된 공간에서는 낮은 해상도, 적은 조명, 예상할 수 없는 머리의 움직임 ,연속적으로 변화하는 얼굴의 표정과 색 등으로 인하여 사람의 얼굴인식에 많은 문제점을 가지고 있다. 이러한 문제점들을 해결하기 위하여 동적 공간 변화(DSW)라는 새로운 알고리즘을 제안한다. 알고리즘은 공간의 제약이 따르는 환경에서의 국부적 특징들을 조합하는 것이며 모아진 자료를 기초로 고유한 얼굴 이미지와 DSW를 비교하고, 정면과 프로필 얼굴 이미지, 두 단계의 색 변화를 가지는 이미지를 가지고 테스트하였다. 실험 결과로 PCA 알고리즘이 82.7% DSW가 89.4%로 DSW를 적용한 경우가 PCA 방법보다 6.9% 더 좋은 결과를 나타내었으며 고유한 얼굴이미지에 접근함을 알 수 있었다. In this paper, we investigate recognition of human faces in a meeting room. The major challenges of identifying human faces in this environment include low quality of input images, poor illumination, unrestricted head poses and continuously changing facial expressions and occlusion. In order to address these problems we propose a novel algorithm, Dynamic Space Warping (DSW). The basic idea of the algorithm is to combine local features under certain spatial constraints. We compare DSW with the eigenface approach on data collected from various meetings. We have tested both front and profile face images and images with two stages of occlusion. As a result from the experiment, we obtained 82.7% for PCA algotithm, and 89.4% for DSW. We get to obtain 6.9% better result from conductive DSW approach rather than PCA. It turned out to be that it shows more original and unique facial image.
GRNN을 이용한 실시간 시선 식별 시스템에 관한 연구
이영식,배철수,Lee Young-Sik,Bae Cheol-Soo 한국정보통신학회 2005 한국정보통신학회논문지 Vol.9 No.2
본 논문에서는 실시간 시선 식별을 위한 능동적 적외선 조명을 기반으로 한 컴퓨터 비전 시스템을 제안하고자 한다. 현존하는 대다수의 시선 식별 방법은 고정된 얼굴에서만 원활하게 동작하고 개개인에 대한 교정 절차를 필요로 한다. 그러므로 본 논문에서는 교정 작업 없이 얼굴 움직임이 있는 경우에도 견실하고 정화하게 동작하는 시선 식별 시스템을 제안하고 있다. 제안된 시스템은 추출된 변수로부터 시선을 스크린 좌표로 매핑하기 위해 GRNN을 이용하였다. GRNN을 사용함으로서, 시선 매핑에 분석적 기능이나 얼굴 움직임에 대한 계산이 필요 없을 뿐 아니라 다른 개개인에 대하여 학습과정에서 매핑 기능을 일반화 할 수 있었다. 시선 예측 정확도를 개선하고자 계층적 식별을 제안함으로써 오분류를 줄일 수 있었고, 공간 시선 해상도는 스크린에서 Im 정도 떨어진 거리에서 수평으로 10cm, 수직으로 약 13cm, 즉 수평으로 8도 수직으로 5도 이었다 실험 결과, 재식별 하였을 경우 1차 시선 식별시 84$\%$보다 약 9$\%$ 정도 정확성이 향상되어 93%를 나타냄으로써 제안된 시스템의 유효성을 증명하였다. This paper describes a computer vision system based on active IR illumination for real-time gaze discrimination system. Unlike most of the existing gaze discrimination techniques, which often require assuming a static head to work well and require a cumbersome calibration process for each person, our gaze discrimination system can perform robust and accurate gaze estimation without calibration and under rather significant head movement. This is made possible by a new gaze calibration procedure that identifies the mapping from pupil parameters to screen coordinates using generalized regression neural networks (GRNNS). With GRNNS, the mapping does not have to be an analytical function and head movement is explicitly accounted for by the gaze mapping function. furthermore, the mapping function can generalize to other individuals not used in the training. To further improve the gaze estimation accuracy, we employ a reclassification scheme that deals with the classes that tend to be misclassified. This leads to a 10$\%$ improvement in classification error. The angular gaze accuracy is about $5^{circ}$horizontally and $8^{circ}$vertically. The effectiveness of our gaze tracker is demonstrated by experiments that involve gaze-contingent interactive graphic display.