http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.
변환된 중국어를 복사하여 사용하시면 됩니다.
김원준(Wonjun Kim),김창익(Changick Kim) 大韓電子工學會 2009 電子工學會論文誌-SP (Signal processing) Vol.46 No.5
실내외 영상 분류에 대한 연구는 밝기나 에지 정보와 같이 하위 레벨(low-level) 정보의 단순 결합을 이용하여 수행되어 왔다. 그러나 기존의 하위 레벨 영상 정보만을 기반으로 하는 실내외 영상 분류 방법은 다양한 콘텐츠를 극복하는데 한계가 있기 때문에 상위 레벨(high-level) 영상 정보를 함께 이용하는 방법에 대한 연구가 많이 진행되어 왔다. 이러한 연구의 대부분은 영상 내 하늘이나 수풀과 같은 영역을 검출하기 위해 별도의 알고리즘을 수행하기 때문에 특징 벡터의 차원을 증가시키거나 수행 속도를 저하시키는 문제점이 있다. 따라서 본 논문에서는 이러한 문제점을 극복하기 위해 효율적인 실내외 영상 분류기법을 제안한다. 먼저 효과적인 특징 벡터를 생성하기 위해 영상을 5개의 하위 블록으로 나눈다. 각각의 블록에 대하여, 제안하는 에지ㆍ색상 방향 히스토그램(edge and color orientation histogram, ECOH) 기술자(descriptor)를 이용하여 해당 블록을 표현하고 모든 블록의 값을 연결하여 최종적으로 특징 벡터를 생성한다. 제안하는 알고리즘의 효율성과 강건함을 보이기 위해 1200개 이상의 다양한 실내외 영상을 사용하였으며, 학습을 통해 각 영역의 가중치를 결정하여 분류 성능을 향상 시켰다. Prior research works in indoor-outdoor classification have been conducted based on a simple combination of low-level features. However, since there are many challenging problems due to the extreme variability of the scene contents, most methods proposed recently tend to combine the low-level features with high-level information such as the presence of trees and sky. To extract these regions from videos, we need to conduct additional tasks, which may yield the increasing number of feature dimensions or computational burden. Therefore, an efficient indoor-outdoor scene classification method is proposed in this paper. First, the video is divided into the five same-sized blocks. Then we define and use the edge and color orientation histogram (ECOH) descriptors to represent each sub-block efficiently. Finally, all ECOH values are simply concatenated to generate the feature vector. To justify the efficiency and robustness of the proposed method, a diverse database of over 1200 videos is evaluated. Moreover, we improve the classification performance by using different weight values determined through the learning process.
김원준(Wonjun Kim),김창익(Changick Kim) 한국정보과학회 2007 정보과학회논문지 : 소프트웨어 및 응용 Vol.34 No.7
최근 많은 TV 영상에서 시청자의 시각적 편의와 이해를 고려하여 자막을 삽입하는 경우가 늘어나고 있다. 본 논문에서는 자막을 비디오 내 하단부에 위치하는 인위적으로 추가된 글자 영역으로 정의한다. 이러한 자막 영역의 추출은 비디오 정보 검색(video information retrieval)이나 비디오 색인(video indexing)과 같은 응용에서 글자 추출을 위한 첫 단계로 널리 쓰인다. 기존의 자막 영역 추출은 자막의 색, 자막과 배경의 밝기 대비, 에지(edge), 글자 필터 등을 이용한 방법을 사용하였다. 그러나 비디오 영상내 자막이 갖는 낮은 해상도와 복잡한 배경으로 인해 자막 추출에 어려움이 있다. 이에 본 논문은 코너검출기(corner detector)를 이용한 효율적인 비디오 자막 영역 추출 방법을 제안하고자 한다. 제안하는 알고리즘은 해리스 코너 검출기를 이용한 코너 맵 생성, 코너 밀도를 이용한 자막 영역 후보군 추출, 레이블링(labeling)을 이용한 최종 자막 영역 결정, 노이즈(noise) 제거 및 영역 채우기의 네 단계로 구성된다. 제안하는 알고리즘은 색 정보를 이용하지 않기 때문에 여러 가지 색으로 표현되는 자막 영역 추출에 적용 가능하며 글자 모양이 아닌 글자의 코너를 이용하기 때문에 언어의 종류에 관계없이 사용 될 수 있다. 또한 프레임간 자막 영역 업데이트를 통해 자막 영역 추출의 효율을 높였다. 다양한 영상에 대한 실험을 통해 제안하는 알고리즘이 효율적인 비디오 자막 영역 추출 방법임을 보이고자 한다. In recent years, the use of text inserted into TV contents has grown to provide viewers with better visual understanding. In this paper, video text is defined as superimposed text region located of the bottom of video. Video text extraction is the first step for video information retrieval and video indexing. Most of video text detection and extraction methods in the previous work are based on text color, contrast between text and background, edge, character filter, and so on. However, the video text extraction has big problems due to low resolution of video and complex background. To solve these problems, we propose a method to extract text from videos using the Harris corner detector. The proposed algorithm consists of four steps: corer map generation using the Harris corner detector, extraction of text candidates considering density of corners, text region determination using labeling, and post-processing. The proposed algorithm is language independent and can be applied to texts with various colors. Text region update between frames is also exploited to reduce the processing time. Experiments are performed on diverse videos to confirm the efficiency of the proposed method.