RISS 학술연구정보서비스

검색
다국어 입력

http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.

변환된 중국어를 복사하여 사용하시면 됩니다.

예시)
  • 中文 을 입력하시려면 zhongwen을 입력하시고 space를누르시면됩니다.
  • 北京 을 입력하시려면 beijing을 입력하시고 space를 누르시면 됩니다.
닫기
    인기검색어 순위 펼치기

    RISS 인기검색어

      검색결과 좁혀 보기

      선택해제
      • 좁혀본 항목 보기순서

        • 원문유무
        • 원문제공처
          펼치기
        • 등재정보
          펼치기
        • 학술지명
          펼치기
        • 주제분류
          펼치기
        • 발행연도
          펼치기
        • 작성언어
        • 저자
          펼치기

      오늘 본 자료

      • 오늘 본 자료가 없습니다.
      더보기
      • 무료
      • 기관 내 무료
      • 유료
      • KCI등재

        은닉 마르코브 모델을 이용한 비디오 요약 시스템

        박호식,배철수 한국정보통신학회 2004 한국정보통신학회논문지 Vol.8 No.6

        This paper proposes a system to analyze and summarize the video shots of baseball game TV program into fifteen categories. Our System consists of three modules: feature extraction, Hidden Markov Model (HMM) training, and video shot categorization. Video Shots belongs to the same class are not necessarily similar, so we require that the training set is large enough to include video shot with all possible variations to create a robust Hidden Markov Model. In the experiments, we have illustrated that our system can recognize the 15 different shot classes with a success ratio of 84.72%. 본 논문에서는 비디오 검색을 위한 비디오 사진 분류 시스템을 제안하였다. 제안된 시스템은 3개의 모듈인 특징 추출, 은닉 마르코브 모델 생성, 그리고 비디오 사진 분류로 구성되어 있다. 같은 등급에 속한 비디오 화면들이 반드시 유사하지 않으므로 견실한 Hidden Markov Model을 구성하기 위해서 는 충분한 학습이 필요하였다. 제안된 시스템은 텔레비전 야구 중계 방송의 비디오 화면을 15가지 등급으로 분류하여 분석 및 하는 실험을 한 결과 평균 84.72%의 인식률을 얻을 수 있었다.

      • KCI등재

        비전 기반의 손동작 검출 및 추적 시스템

        박호식,배철수,Park Ho-Sik,Bae Cheol-soo 한국통신학회 2005 韓國通信學會論文誌 Vol.30 No.12C

        본 논문에서는 비전 기반의 손동작 검출 및 추적 시스템을 제안하고자 한다. 기존의 손동작 인식 시스템은 정적인 관측 환경에서 배경을 제거함으로 손을 검출하는 단순한 방법을 사용함으로써, 카메라의 움직임, 조명의 변화 등에 의해 견실하지 못하였다. 그러므로 본 논문에서는 기하학적 구조에 의하여 손의 외형을 인식하여 검출할 수 있는 통계적 방법을 제안하였다. 또한 카메라의 각도에 의한 손이 겹쳐 보이는 문제를 줄이기 위하여 다중 카메라를 사용하였으며 비동기식 다중 관측으로 시스템의 범용성을 향상시키었다. 실험 결과 제안된 방법이 기존의 외관을 이용한 방법보다 $3.91\%$ 개선된 $99.28\%$의 인식률을 나타내어 제안한 방법의 효율성을 입증하였다. We present a vision-based hand gesture detection and tracking system. Most conventional hand gesture recognition systems utilize a simpler method for hand detection such as background subtractions with assumed static observation conditions and those methods are not robust against camera motions, illumination changes, and so on. Therefore, we propose a statistical method to recognize and detect hand regions in images using geometrical structures. Also, Our hand tracking system employs multiple cameras to reduce occlusion problems and non-synchronous multiple observations enhance system scalability. In this experiment, the proposed method has recognition rate of $99.28\%$ that shows more improved $3.91\%$ than the conventional appearance method.

      • 나노기반 분리막의 수처리 응용

        박호식,남승은,박유인 한국막학회 2015 한국막학회 총회 및 학술발표회 Vol.2015 No.05

        최근 수처리 기술수준의 한계를 극복하기 위한 새로운 대안으로 나노 기술과 수처리 기술의 융합이 부각되고 있으며, 특히 분리막 분야에서는 나노 기술 접목이 담수화 이외에도 하수재이용, 폐수처리, 에너지 생산 등 다양한 분야에 적용이 가능할 것으로 예측되고 있다. 기존 분리막 소재에 활용 가능한 나노소재로는 탄소계 나노소재와 금속계 나노소재가 후보군으로 연구가 진행 중에 있다. 나노소재의 경우 소재 자체가 가지는 물리화학적 특성으로 분리막의 기계적 특성, 표면전하, 친수성도 등의 변화를 기대할 수 있다. 따라서 높은 기능성을 갖는 나노소재 기반 분리막 기술의 개발은 기존 수처리 기술의 문제 해결 및 나노 기술과 환경 기술의 융·복합 연구에 대한 새로운 패러다임을 제시할 수 있을 것으로 기대된다.

      • KCI등재
      • KCI등재
      • KCI등재
      • KCI등재

        얼굴 특징 실시간 자동 추적

        박호식,배철수 한국정보통신학회 2004 한국정보통신학회논문지 Vol.8 No.6

        본 논문에서는 실시간으로 눈과 눈썹주위의 특징을 추적하는 새로운 알고리즘을 제안하고자 한다. 제안된 알고리즘은 적외선 LED와 적외선카메라로 밝은 동공 효과를 만들어 동공을 추적 한 후, 템플릿은 얼굴 특징을 매개변수화 하기 위해, 동공 좌표는 각각의 프레임에서 눈과 눈썹 영상을 추출하기 위하여 사용한다. 또한, 템플릿 변수는 표본 영상을 가지고 학습하는 과정에서 구성한 PCA기저를 이용하여 추출된 영상을 PCA 분석하여 구한다. 제안된 시스템은 초당 30 프레임의 영상에서 초기 설정 및 교정 작업 없이 머리 움직임이 많거나 폐색이 있는 경우에도 견실하게 동작하였다. Robust, real-time, fully automatic tracking of facial features is required for many computer vision and graphics applications. In this paper, we describe a fully automatic system that tracks eyes and eyebrows in real time. The pupils are tracked using the red eye effect by an infrared sensitive camera equipped with infrared LEDs. Templates are used to parameterize the facial features. For each new frame, the pupil coordinates are used to extract cropped images of eyes and eyebrows. The template parameters are recovered by PCA analysis on these extracted images using a PCA basis, which was constructed during the training phase with some example images. The system runs at 30 fps and requires no manual initialization or calibration. The system is shown to work well on sequences with considerable head motions and occlusions.

      • KCI등재후보

        지능형 비디오 감시를 위한 능동적 객체 추적 시스템

        박호식,Park, Ho-Sik 한국정보전자통신기술학회 2014 한국정보전자통신기술학회논문지 Vol.7 No.2

        지능형 영상 감시 시스템은 감시카메라의 영상정보를 디지털화 하여 시스템이 스스로 사물의 위치 및 패턴을 분석하고 위험 상황이 발생할 경우 경보 및 출입 차단 시스템을 작동하여 보안담당자에게 즉각 현황을 알려 사람의 관리로 인해 발생하는 취약점을 대체, 보완 할 수 있게 해준다. 그러나 원거리 화면에서에서 작은 객체를 확대하기 위해서는 객체 위치에 따른 정확한 확대 배율과 중심좌표 이동이 이루어져야 한다. 그래서 본 논문에서는 유동적 배경에서 객체 이동에 따른 Pan, Tilt 좌표와 확대 배율을 연산하여 객체가 근거리 혹은 원거리 어디에 있듯 일정한 크기의 객체를 추적할 수 있도록 하고자 하였다. 실험결과 카메라의 정확한 PTZ 제어를 위하여 무게 중심을 검출하여 제어한 결과, 거리에 따라 최소 94%~100%의 정확한 제어가 가능하여 객체의 주요 영역을 인식 및 추적할 수 있었다. It is helpful to use Intelligent Video Surveillance to replace and supplement the demerit which can possibly occur due to the mistake that can be made by human management. To accomplish this, it is essential that the system should digitalize image information from surveillance camera so that the system, itself, can be able to locate a object and to analyze the pattern of the object. Also, it is imperative that the system should have ability to operate a alarm and a entrance blocking system and to notify a situation to a security manager. Zooming a small object form a screen, however, requires a exact zooming ratio of the object and a shift of centric coordinate. In this paper, It is able to locate and observe closely a object from flexible background, regardless of the distance, by calculating a zooming ratio according to object moment, pan coordinate, and tilt coordinate.

      • KCI등재

        휴먼 컴퓨터 인터페이스를 위한 실시간 시선 식별

        박호식,배철수,Park Ho sik,Bae Cheol soo 한국통신학회 2005 韓國通信學會論文誌 Vol.30 No.3C

        본 논문에서는 실시간 시선 식별을 위한 능동적 적외선 조명을 기반으로 한 컴퓨터 비전 시스템을 제안하고자 한다. 현존하는 대다수의 시선 식별 방법은 고정된 얼굴에서만 원활하게 동작하고 개개인에 대한 교정 절차를 필요로 한다. 그러므로 본 논문에서는 교정 작업 없이 얼굴 움직임이 있는 경우에도 견실하고 정확하게 동작하는 시선 식별 시스템을 제안하고 있다. 제안된 시스템은 추출된 변수로부터 시선을 스크린 좌표로 매핑하기 위해 GRNN을 이용하였다. 동공을 추적하여 GRNN을 사용함으로서, 시선 매핑에 분석적 기능이나 얼굴 움직임에 대한 계산이 필요 없을 뿐 아니라 다른 개개인에 대하여 학습과정에서 매핑 기능을 일반화 할 수 있었다. 시선 예측 정확도를 개선하고자 계층적 식별을 제안함으로써 오분류를 줄일 수 있었고, 공간 시선 해상도는 스크린에서 1m 정도 떨어진 거리에서 수평으로 10cm, 수직으로 약 13cm, 즉 수평으로 8도 수직으로 5도 이었다. 실험 결과, 재식별 하였을 경우 1차 시선 식별시 84%보다 약 9% 정도 정확성이 향상되어 93%를 나타냄으로써 제안된 시스템의 유효성을 증명하였다. This paper describes a computer vision system based on active IR illumination for real-time gaze discrimination system. Unlike most of the existing gaze discrimination techniques, which often require assuming a static head to work well and require a cumbersome calibration process for each person, our gaze discrimination system can perform robust and accurate gaze estimation without calibration and under rather significant head movement. This is made possible by a new gaze calibration procedure that identifies the mapping from pupil parameters to screen coordinates using generalized regression neural networks (GRNNs). With GRNNs, the mapping does not have to be an analytical function and head movement is explicitly accounted for by the gaze mapping function. Futhermore, the mapping function can generalize to other individuals not used in the training. To further improve the gaze estimation accuracy, we employ a reclassification scheme that deals with the classes that tend to be misclassified. This leads to a 10% improvement in classification error. The angular gaze accuracy is about 5°horizontally and 8°vertically. The effectiveness of our gaze tracker is demonstrated by experiments that involve gaze-contingent interactive graphic display.

      연관 검색어 추천

      이 검색어로 많이 본 자료

      활용도 높은 자료

      해외이동버튼