RISS 학술연구정보서비스

검색
다국어 입력

http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.

변환된 중국어를 복사하여 사용하시면 됩니다.

예시)
  • 中文 을 입력하시려면 zhongwen을 입력하시고 space를누르시면됩니다.
  • 北京 을 입력하시려면 beijing을 입력하시고 space를 누르시면 됩니다.
닫기
    인기검색어 순위 펼치기

    RISS 인기검색어

      검색결과 좁혀 보기

      선택해제
      • 좁혀본 항목 보기순서

        • 원문유무
        • 원문제공처
        • 등재정보
        • 학술지명
        • 주제분류
        • 발행연도
        • 작성언어
        • 저자
          펼치기

      오늘 본 자료

      • 오늘 본 자료가 없습니다.
      더보기
      • 무료
      • 기관 내 무료
      • 유료
      • 일반화된 문자 및 비디오 자막 영역 추출 방법

        전병태(Byung Tae Chun),배영래(Younglae Bae),김태윤(Tai-Yun Kim) 한국정보과학회 2000 정보과학회논문지 : 소프트웨어 및 응용 Vol.27 No.6

        기존의 문자 영역 추출 방법은 전체 영상에 대하여 컬러 축소(color reduction), 영역 분할 및 합병(region split and merge), 질감 분석(texture analysis)등과 같은 방법을 이용하여 문자 영역을 추출했다. 이 방법들은 많은 휴우리스틱(heuristic) 변수와 추출하고자 하는 문자의 사전 지식에 의해 임계치 값을 설정함으로서 알고리즘을 일반화하기 어렵다는 문제점이 있다. 본 논문에서는 문자의 지형학적 특징점 추출 방법과 점-선-면 확장법을 이용하여 문자 영역을 추출함으로서 기존 문자 영역 추출의 문제점인 휴우리스틱 변수의 사용을 최소화하고 임계치 값을 일반화함으로 서 일반화된 문자 영역 추출 방법을 제안 하고자 한다. 실험결과 일반화된 변수와 임계값을 사용함으로서 문자의 사전 지식 없이도 문자 영역을 추출함을 볼 수 있었다. 비디오 영상의 경우 후보 영역 추출율 100%, 검증을 통한 자막 영역 추출율은 98% 이상임을 볼 수 있었다. Conventional character extraction methods extract character regions using methods such as color reduction, region split and merge and texture analysis from the whole image. Because these methods use many heuristic variables and thresholding values derived from a priori knowledge, it is difficult to generalize them algorithmically. In this paper, we propose a method that can extract character regions using a topographical feature extraction method and a point-line-region extension method. The proposed method can also solve the problems of conventional methods by reducing heuristic variables and generalizing thresholding values. We see that character regions can be extracted by generalized variables and thresolding values without using a priori knowledge of character region. Experimental results show that the candidate region extraction rate is 100%, and the character region extraction rate is over 98%.

      • KCI등재

        확장적 블록 정합 방법과 영역 보상법을 이용한 비디오 문자 영역 복원 방법

        전병태(Byung Tae Chun),배영래(Younglae Bae) 한국정보과학회 2002 정보과학회논문지 : 소프트웨어 및 응용 Vol.29 No.11·12

        Conventional research on image restoration has focused on restoring degraded images resulting from image formation, storage and communication, mainly in the signal processing field. Related research on recovering original image information of caption regions includes a method using BMA(block matching algorithm). The method has problems with frequent incorrect matching and propagating the errors by incorrect matching. Moreover, it is impossible to recover the frames between two scene changes when scene changes occur more than twice. In this paper, we propose a method for recovering original images using EBMA(Extended Block Matching Algorithm) and a region compensation method. To use it in original image recovery, the method extracts a priori knowledge such as information about scene changes, camera motion and caption regions. The method decides the direction of recovery using the extracted caption information the start and end frames of a caption) and scene change information. According to the direction of recovery, the recovery is performed. in units of character components using EBMA and the region compensation method. Experimental results show that EBMA results in good recovery regardless of the speed of moving object and complexity of background in video. The region compensation method recovered original images successfully, when there is no information about the original image to refer to. 기존의 원영상 복원 기술은 주로 신호 처리 분야에서 영상의 형성(formation), 저장 및 통신상에서 발생되는 왜곡 현상을 복원하는 연구가 많이 이루어 졌다. 원 영상 복원과 관련된 기존의 연구는 블록 정합(block matching algorithm)을 이용한 원영상 복원 방법이 있다. 이 방법은 오 정합(incorrect matching) 발생하기 쉽고 오 정합 시 에러가 전파되는 문제점이 있다. 그리고 장면 전환이 2회 이상 발생 될 경우 장면 전환 지점과 지점 사이의 복원이 불가능하다는 문제점이 있다. 본 논문에서는 기존의 문제점들을 해결하기 위하여 확장적 블록 정합 방법(EBMA: Extended Block Matching Algorithm)과 영역 보상법(Region compensation method)을 이용한 원영상 복원 방법을 제안하고자 한다. 원영상 복원에 사용하기 위하여 비디오 사전 정보(장면 전화 정보, 카메라 모션 정보, 캡션 영역 정보)를 추출한다. 추출된 캡션 영역 정보를 이용하여 캡션 문자의 구성 요소 정보를 추출한다. 추출된 비디오 사전 정보를 이용하여 복원의 방향성을 결정하고, 복원의 방향성에 따라 문자의 구성 요소 단위로 확장적 블록 정합 방법과 영역 보상법을 이용하여 원영상 복원을 수행한다. 실험결과 확장적 블록 정합 방법은 빠른 물체의 움직임이나 복잡한 배경에 영향을 받지않고 복원이 잘 되는 것을 볼 수 있었다. 참조할 원영상이 없이 원영상 복원을 수행하는 영역 보상법의 복원 결과 또한 좋음을 볼 수 있었다.

      • 샷 단위로 분할된 동영상 데이터에서의 대표프레임 선정

        이재연(Jae Yeon Lee),전병태(Byung Tae Chun),배영래(Younglae J. Bae) 한국정보과학회 1997 한국정보과학회 학술발표논문집 Vol.24 No.2Ⅱ

        샷 단위로 분할되어 있는 동영상 데이터로부터 대표프레임을 선정하는 새로운 방법에 대하여 보고했다. 본 논문에서 제안하는 방식은 프레임 간의 화소값 차이의 변화패턴에 주목하여 샷 내의 내용상의 변화형태를 추측, 대표성을 가지는 프레임을 선정할 수 있도록 한 것이다. 특히 화소값 차이는 동영상의 분할을 위하여 이미 구해지게 되므로 대표프레임 선정 만을 위한 추가의 처리부담이 거의 없이 기존의 첫째 프레임이나 마지막 프레임을 선정하는 것과 같은 단순한 방식에 비하여 훨씬 합리적인 대표프레임의 선정을 가능하게 한 것을 특징으로 하고 있다.

      • Wavelet Transform을 이용한 Key - Frame 검색

        정세윤(Seyoon JEONG),김규헌(Kyuheon KIM),전병태(Byungtae CHUN),이재연(Jaeyeon LEE),배영래(Younglae BAE) 한국정보과학회 1998 한국정보과학회 학술발표논문집 Vol.25 No.2Ⅱ

        본 논문에서는 동영상 데이터벨이스에서 key-frame을 검색하는 방법을 제안한다. 본 논문에서는 key-frame을 검색하기 위해 컬러 피쳐를 공간영역에서 추출하지 않고 wavelet transform 영역에서 컬러 피쳐를 추출하는 방법을 제안한다. wavelet transform의 저주파 밴드는 영상전체의 특징을 잘 나타내고 고주파 벤드는 texture와 국부적인 컬러 특성을 잘 나타낸다. 색인과정 알고리즘은 영상의 크기를 정규화하고 RGB 컬러공간에서 HSV 컬러 공간으로 변환을 하여, H,S,V 각 채널에 대해 Daubechies' wavelet transform을 수행한 후 변환 영역에서 피쳐를 추출하게 된다. 색인을 위한 피쳐를 wavelet 계수와 lowest 밴드의 평균과 표준편차를 추출하였다. 효율적인 검색을 위해 검색은 2 단계로 수행된다. 먼저 평균과 표준편차만을 이용한 1차 검색을 통해 2차 검색의 후보 영상들을 추출하고 2차 검색에서는 이 1차 검색 통과 영상들에 대해서만 wavelet 계수들을 비교하여 최종 검색 결과를 얻게 된다. 검색결과 기존의 컬러 피쳐를 이용한 방법보다 우수한 검색결과를 얻을 수 있었다.

      • 복수의 검출기를 사용하는 동영상의 샷 경계 자동검출 알고리즘

        이재연(Jae Yeon Lee),전병태(Byung Tae Chun),배영래(Younglae J. Bae) 한국정보과학회 1998 정보과학회논문지(B) Vol.25 No.9

        동영상 데이타는 그 양이 방대하고 순차적인 특성을 가지고 있어 검색이나 브라우징이 대단히 곤란하다. 이러한 문제의 해결을 위하여 동영상을 내용에 기반하여 분할함으로써 계층적인 구조를 형성하는 모델들이 제안되어 왔다. 자동 샷 경계 검출은 이와 같은 동영상 데이타의 구조화에 있어 가장 먼저 수행되는 작업으로 최근 많은 연구자들의 주목을 받고 있다. 이 연구분야의 주된 테마는 크게 두가지로 나눌 수 있는데, 하나는 빠른 속도로 일어나는 카메라 조작이나 동영상 내의 큰 물체의 움직임, 갑작스런 밝기의 변화 등에 영향받지 않고 옳바른 컷을 검출할 수 있는 견고한 특징량의 발견의 문제이고, 다른 하나는 페이딩이나 디졸브(dissolve), 와이핑 등의 점진적인 샷 경계를 검출할 수 있는 메커니즘의 발견에 관한 문제이다. 지금까지 제안되어 온 알고리즘은 주로 이 두가지 문제를 하나의 방식에 의하여 풀려고 시도해 왔으나, 컷과 점진적인 샷 경계는 그 성격이 판이하게 다르다는 점을 고려할 때 본 연구에서는 오히려 각각에 적합한 복수의 검출기를 사용하는 것이 보다 합리적일 것이라고 생각했다. 본 논문에서는 컷 검출의 문제를 위해서는 “차분영상 히스토그램의 분산”이라는 새로운 특징량을 제안했다. 또한 새로 제안된 특징량과 기존의 화소값 차이나 히스토그램의 차이와 같은 특징량을 결합함으로써 보다 정확한 샷 경계 검출이 가능함을 보였다. 점진적인 샷 경계 검출의 문제에 대해서는 우선 페이딩이나 커튼효과와 같은 단일색 프레임을 거치는 샷 경계에 주목하여, 각 프레임의 화소값의 분산을 이용하여 단일색 프레임의 출현을 감시하는 방식을 제안하였다. 이와 같이 두가지의 상호 독립적인 검출기를 사용함으로써 컷과 점진적인 샷 경계의 양쪽 모두를 보다 효율적이고 정확하게 검출할 수 있음을 실험으로 확인하였다. Due to the huge size and sequential characteristics of video data, it is very difficult to search or to browse them. To solve the problem, some hierarchical models that divide a video stream into more manageable segments based on the contents, have been proposed. Automatic shot boundary detection is the first stage in such structuring, and has received a lot of attention recently. The main issues in this research area may be classified into two categories. The first one is to find out robust features that can detect cuts correctly even in cases where dynamic motions, fast zooming, camera tilting or sudden brightness changes occur. Another one is to seek a mechanism that can detect gradually changing shot boundaries such as fading, curtaining, dissolve and merge, or wipings, which have very different characteristics from those of cuts. Existing algorithms have been mostly trying to solve the above two problems at the same time. It is, however, thought to be more reasonable to adopt an individual algorithm for each type of boundary because the characteristics of each shot boundary are so different. For cut detection, in this paper, a new feature, “variance of difference histogram”, is proposed, which has been proved to be effective compared to the traditional features. Also, it has been shown that by combining the new feature With the traditional features, such as pixel differences and histogram differences, the robustness of cut detection can be greatly improved. For gradually changing boundaries, a new method which checks a solid color frame when fading or curtaining effect is taking place is proposed This method observes the pixel variance to check if the sequence reaches the solid color frame. By adopting these two mechanisms which are mutually independent, both cuts and gradually changing boundaries could be detected more efficiently and reliably.

      • 칼라 분포 특성을 이용한 칼라 인덱싱

        정세윤(Se-yoon JEONG),전병태(Byung-tae CHUN),이재연(Jae-yeon LEE),왕민(Min WANG),배영래(Younglae J. BAE) 한국정보과학회 1997 한국정보과학회 학술발표논문집 Vol.24 No.2Ⅱ

        내용기반 영상 검색시스템에서 칼라는 가장 중요한 특징 중에 하나다. 기존의 연구는 칼라 히스토그램을 이용한 색인방법을 사용해 왔다. 기존의 히스토그램 색인 방법은 영사의 실제 유사도을 근사하는데 신뢰성이 충분하지 못하다는 단점이 있다. 히스토그램방법의 단점을 해결하기 위해 본 논문에서는 칼라 분포특성을 이용한 색인 방법을 연구하였다. 또한 효과적인 검색을 위해 사람이 느끼는 유사도를 근사하기 위해 신경망을 사용한 유사도 측정 함수를 제안하였다. 여러 칼라 공간에 대해 실험을 해본 결과 신경망 유사도 측정 함수를 사용할 경우 YUV 공간에서 색인 하는 것이 실용적인 것을 보였다.

      연관 검색어 추천

      이 검색어로 많이 본 자료

      활용도 높은 자료

      해외이동버튼