RISS 학술연구정보서비스

검색
다국어 입력

http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.

변환된 중국어를 복사하여 사용하시면 됩니다.

예시)
  • 中文 을 입력하시려면 zhongwen을 입력하시고 space를누르시면됩니다.
  • 北京 을 입력하시려면 beijing을 입력하시고 space를 누르시면 됩니다.
닫기
    인기검색어 순위 펼치기

    RISS 인기검색어

      검색결과 좁혀 보기

      선택해제
      • 좁혀본 항목 보기순서

        • 원문유무
        • 원문제공처
        • 등재정보
        • 학술지명
          펼치기
        • 주제분류
        • 발행연도
          펼치기
        • 작성언어
        • 저자
          펼치기

      오늘 본 자료

      • 오늘 본 자료가 없습니다.
      더보기
      • 무료
      • 기관 내 무료
      • 유료
      • KCI등재

        항공 응용 분야 : 비디오 감시 응용을 위한 텍스쳐와 컬러 정보를 이용한 고속 물체 인식

        백중환 ( Joong Hwan Baek ),민재홍 ( Jae Hong Min ),이슬람모하마드카이룰 ( Mohammad Khairul Islam ),자한파라 ( Farah Jahan ) 한국항행학회 2011 韓國航行學會論文誌 Vol.15 No.1

        본 논문에서는 텍스쳐와 컬러 정보를 기반으로 비디오 감시를 위한 빠른 물체 분류 방법을 제안한다. 영상들로부터 SURF와 색 히스토그램의 국부적 패치들을 추출하여 그들의 장점을 이용한다. SURF는 명암 내용 정보를 제공하고 색 정보는 패치에 대한 특이성을 증강시킨다. SURF의 빠른 계산뿐만 아니라 객체의 색 정보를 활용한다. 국부적 특징을 이용하여 관심 영역 혹은 영상의 전역적 서술자를 생성하기 위해 Bag of Word 모델을 이용하고, 전역적 서술자를 분류하기 위해 Na?ve Bayes 모델을 이용한다. 또한 본 논문에서는 판별적인 기술자인 SIFT도 성능 분석한다. 네 종류의 객체에 대한 실험결과 95.75%의 인식률을 보였다. In this paper, we propose a fast object classification method based on texture and color information for video surveillance. We take the advantage of local patches by extracting SURF and color histogram from images. SURF gives intensity content information and color information strengthens distinctiveness by providing links to patch content. We achieve the advantages of fast computation of SURF as well as color cues of objects. We use Bag of Word models to generate global descriptors of a region of interest (ROI) or an image using the local features, and Na?ve Bayes model for classifying the global descriptor. In this paper, we also investigate discriminative descriptor named Scale Invariant Feature Transform (SIFT). Our experiment result for 4 classes of the objects shows 95.75% of classification rate.

      • KCI등재

        항법 지리 데이타베이스를 이용한 비행 시뮬레이터용 항공전자 장치 소프트웨어 개발

        백중환,Baek, Joong Hwan 한국항행학회 1997 韓國航行學會論文誌 Vol.1 No.1

        본 논문에서는 R-트리를 이용하여 항법 지리 데이타베이스를 구축하고 비행 시뮬레이터를 위해 VOR, ILS, DME, NDB 등의 항공전자 장치를 위한 소프트웨어를 개발한다. 먼저, R-트리를 이용하여 항법지리 데이타베이스를 설계하고 각 공항의 항법시설에 대한 데이타베이스를 구축한다. 항공전자 장치 소프트웨어 구현을 위해 VOR에서는 항공기와 VOR국 간의 거리, 방위각, 편위각 등을 계산하는 알고리즘을, ILS에서는 LLZ로 부터의 편위각, GP로 부터의 글라이드 슬로프로, 마커의 범위 등을 계산하는 알고리즘을 개발한다. 항법 지리 데이타베이스 시스템은 데이타베이스를 구축하고 갱신할 수 있는 항법지리 데이타 관리기, 항법전자장치에 관련된 정보를 제공하는 실시간 탐색기, 항법지리 데이타베이스, 그리고 사용자 인터페이스로 구성된다. In this paper, we construct a navigation geography database using R-tree, and develop a software for avionics systems such as VOR, ILS, DME, and NDB. First, we design the navigation geography database using R-tree, and construct a database for navigation aids facilities of every airport. In order to implement avionics software, we develop some calculating algorithms for distance, bearing, and deviation angle between an aircraft and a VOR station for VOR, and deviation angle from a LLZ, glide slope from a GP, and range of markers for ILS. The navigation geography database system is composed of map data manager which can construct and update the database, real-time searcher which provides information about the avionics system, geography database, and user interface.

      • KCI등재

        전역 및 지역 경로 생성을 통한 무인항공기 자율비행 시스템 연구

        고하윤,백중환,최형식,Ko, Ha-Yoon,Baek, Joong-Hwan,Choi, Hyung-Sik 항공우주시스템공학회 2019 항공우주시스템공학회지 Vol.13 No.3

        본 논문에서는 무인항공기의 자율 비행을 위한 전역 및 지역 경로 비행 시스템을 제안한다. 전체적인 시스템은 ROS 로봇 운영체제를 기반으로 구축하였다. 무인항공기에 탑재된 임베디드 컴퓨터는 2-D Lidar를 이용하여 장애물을 검출하고, 실시간으로 VFH 기반의 지역 경로와 제안하는 Modified $RRT^*$-Smart 기반의 전역 경로를 생성한다. 또한, 무인항공기의 비행컨트롤러에 Mavros 통신 프로토콜을 이용하여 생성된 경로에 따른 이동 명령을 내린다. 지상국 컴퓨터는 장애물 정보를 수신하여 2-D SLAM 지도를 생성하고, 목적 지점을 임베디드 컴퓨터에 전달하며 무인항공기의 상태를 관장한다. 제안하는 무인항공기의 자율 비행 시스템을 3-D 공간 상의 시뮬레이터 및 실제 비행을 통해 검증하였다. In this paper, a global and local flight path system for autonomous flight of the UAV is proposed. The overall system is based on the ROS robot operating system. The UAV in-built computer detects obstacles through 2-D Lidar and generates real-time local path and global path based on VFH and Modified $RRT^*$-Smart, respectively. Additionally, a movement command is issued based on the generated path on the UAV flight controller. The ground station computer receives the obstacle information and generates a 2-D SLAM map, transmits the destination point to the embedded computer, and manages the state of the UAV. The autonomous UAV flight system of the is verified through a simulator and actual flight.

      • 비젼 시스템을 이용한 로봇 매니퓰레이터의 강인 제어기 설계

        이영찬,지민석,백중환,이강웅,Lee Young Chan,Jie Min Seok,Baek Joong Hwan,Lee Kang Woong 대한전자공학회 2004 電子工學會論文誌-SC (System and control) Vol.41 No.1

        본 논문에서는 특징점 기반 시각 구동 제어 시스템을 이용하여 파라미터 불확실성을 가지는 로봇 매니플레이터에 대한 강인 제어기를 제안한다. 시스템 내부 서부 루틴인 동력학 제어부에 적분 작용을 포함시켜 파라미터 변동에 의한 로봇 매니플레이터의 정상 상태 오차를 개선하기 위하여 시스템 내부 서부 루틴인 동력학 제어부에 적분 작용을 포함되도록 하였다. 이적분 작용은 이미지 평면상의 특징점 추정 오차도 개선시킨다. 폐루프 시스템의 안정도는 Lyapunov 기법에 의하여 해석한다. 5링크 2 자유도의 로봇에 적용한 컴퓨터 시뮬레이션 및 실험을 통하여 제안된 제어기법의 실용성을 보인다. . In this paper, we propose a robust controller for robot manipulators with parametric uncertainties using feature-based visual servo control system. In order to improve trajectory error of the robot manipulators due to the parameter variation, integral action is included in the dynamic control of part in inner subroutine of the control system. This integral action also reduces feature error in the steady state. The stability analysis of the closed-loop system is shown by the Lyapunov method. The effectiveness of the proposed method is shown by simulation and experimental results on the 5 link robot manipulator with two degree of freedom.

      • KCI등재

        내용기반 비디오 요약을 위한 효율적인 얼굴 객체 검출

        김종성,이순탁,백중환,Kim Jong-Sung,Lee Sun-Ta,Baek Joong-Hwan 한국통신학회 2005 韓國通信學會論文誌 Vol.30 No.7C

        본 논문에서는 효율적인 얼굴 영역 검출 기법을 제안하고 얼굴 객체 검출을 통해 인물 기반의 비디오 시스템을 제공한다. 비디오 분할을 위해 비디오 시퀀스로부터 장면 전환점을 검출하고 분할된 장면들로부터 대표 프레임을 선정한다. 대표 프레임은 인접 프레임 간 변화량이 가장 적은 프레임으로 선정하였으며 추출된 대표 프레임에 대해서 얼굴 영역 검출 알고리즘을 적용하여 등장인물을 포함하는 프레임들을 정보로 제공한다. 얼굴영역 검출을 위해 피부색의 통계적 특성을 이용한 Bayes 분류기를 이용한다. 피부색 검출 결과 영상으로부터 수직 및 수평 투영 기법을 이용하여 영상 분할을 수행하고 후보군들을 생성한다. 생성된 후보군 중 오검출 영역을 최소화하기 위해서 이진 분류 나무(CART)를 이용하여 분류기를 생성한다. 특징 값으로는 SGLD(spatial gray level dependence) 매트릭스로부터 Inertial, Inverse Difference, Correlation 등의 질감 정보를 이용하여 최적의 이진 분류 나무를 생성한다. 실험 결과 제안된 얼굴 영역 검출 알고리즘은 복잡하고 다양한 배경에서도 우수한 성능을 보였으며, 얼굴 객체를 포함하는 프레임들을 비디오 정보로 제공한다. 제안하는 시스템은 향후 화자 인식 기법을 이용하여 등장인물 기반의 비디오 분석 및 에 활용될 수 있을 것이다. In this paper, we propose an efficient face region detection technique for the content-based video summarization. To segment video, shot changes are detected from a video sequence and key frames are selected from the shots. We select one frame that has the least difference between neighboring frames in each shot. The proposed face detection algorithm detects face region from selected key frames. And then, we provide user with summarized frames included face region that has an important meaning in dramas or movies. Using Bayes classification rule and statistical characteristic of the skin pixels, face regions are detected in the frames. After skin detection, we adopt the projection method to segment an image(frame) into face region and non-face region. The segmented regions are candidates of the face object and they include many false detected regions. So, we design a classifier to minimize false lesion using CART. From SGLD matrices, we extract the textual feature values such as Inertial, Inverse Difference, and Correlation. As a result of our experiment, proposed face detection algorithm shows a good performance for the key frames with a complex and variant background. And our system provides key frames included the face region for user as video summarized information.

      • KCI등재

        모노 카메라 영상기반 시간 간격 윈도우를 이용한 광역 및 지역 특징 벡터 적용 AdaBoost기반 제스처 인식

        황승준,고하윤,백중환,Hwang, Seung-Jun,Ko, Ha-Yoon,Baek, Joong-Hwan 한국정보통신학회 2018 한국정보통신학회논문지 Vol.21 No.3

        Recently, the spread of smart TV based Android iOS Set Top box has become common. This paper propose a new approach to control the TV using gestures away from the era of controlling the TV using remote control. In this paper, the AdaBoost algorithm is applied to gesture recognition by using a mono camera. First, we use Camshift-based Body tracking and estimation algorithm based on Gaussian background removal for body coordinate extraction. Using global and local feature vectors, we recognized gestures with speed change. By tracking the time interval trajectories of hand and wrist, the AdaBoost algorithm with CART algorithm is used to train and classify gestures. The principal component feature vector with high classification success rate is searched using CART algorithm. As a result, 24 optimal feature vectors were found, which showed lower error rate (3.73%) and higher accuracy rate (95.17%) than the existing algorithm. 최근 안드로이드, iOS 등의 셋톱박스 기반의 스마트 TV에 대한 보급에 따라 제스처로 TV를 컨트롤 할 수 있는 새로운 접근을 제안한다. 본 논문에서는 모노 카메라 센서를 이용한 AdaBoost 기반 제스처 인식에 관한 알고리즘을 제안한다. 우선, 신체 좌표 추출을 위해 가우시안 배경 제거 및 Camshift 기반 자세 추적 및 추정 알고리즘을 사용한다. AdaBoost 학습 모델을 신체 정규화된 광역 및 지역 특징 벡터의 집합을 특징 패턴으로 하여, 속도가 다른 동작들을 인식할 수 있도록 하였다. 또한 속도가 다른 다양한 제스처를 인식하기 위해 다중 AdaBoost 알고리즘을 적용하였다. CART 알고리즘을 이용하여 성공적인 중요 특징 벡터를 확인하고 중요도가 낮은 특징벡터를 제거하는 방식을 적용하면서 분류 성공률이 높은 최적의 특징 벡터를 탐색하였다. 그 결과 24개의 주성분 특징 벡터를 찾았으며, 기존 알고리즘에 비해 낮은 오분류율(3.73%)과 높은 인식률(95.17%)을 지닌 특징 벡터 및 분류기를 설계하였다.

      • KCI등재

        통계적 특징 기반 인공신경망을 이용한 온라인 서명인식

        박승제,황승준,나종필,백중환,Park, Seung-Je,Hwang, Seung-Jun,Na, Jong-Pil,Baek, Joong-Hwan 한국정보통신학회 2015 한국정보통신학회논문지 Vol.19 No.1

        본 논문에서는 키넥트(Kinect)를 통해 얻은 깊이 영상에서 찾아낸 손가락의 끝점으로 임의의 3차원 공간인 공중에 그린 서명을 인식하는 알고리즘을 제안한다. 3차원 공간상에서 서명 궤적의 시프팅(Shifting), 스케일링(Scaling) 변화에 대응하기 위해 X, Y, Z좌표에 관한 각각 10개의 통계적 특징을 사용하였다. 인공신경망(Artificial Neural Network)은 기계학습 중 하나이며, 패턴인식 분야의 복잡한 분류 문제를 해결할 수 있는 도구로 사용되고 있다. 제안한 알고리즘을 실제 온라인 서명인식 시스템을 구현하여 적용하였고, 앞서 추출한 통계적 특징을 인공신경망의 입력값으로 사용하여 학습 과정을 거친 후 4가지 서명을 분류하는 것을 확인하였다. In this paper, we propose an on-line signature recognition algorithm using fingertip point in the air from the depth image acquired by Kinect. We use ten statistical features for each X, Y, Z axis to react to changes in Shifting and Scaling of the signature trajectories in three-dimensional space. Artificial Neural Network is a machine learning algorithm used as a tool to solve the complex classification problem in pattern recognition. We implement the proposed algorithm to actual on-line signature recognition system. In experiment, we verify the proposed method is successful to classify 4 different on-line signatures.

      • KCI등재

        3차원 그래픽 데이타베이스를 위한 시점기반의 방향관계 표현 기법

        황종하(Hwang Jong Ha),백중환(Baek Joong Hwan),황수찬(Hwang Soochan) 한국정보과학회 2003 정보과학회논문지 : 데이타베이스 Vol.30 No.2

        객체 사이에 존재하는 공간관계는 3차원 그래픽 이미지에 대한 내용기반 검색시 가장 자주 사용되는 조건 중의 하나이다. 그러나 기존 대부분의 공간관계에 대한 연구는 2차원 이미지에서 시점이 고정된 절대적인 방향관계에 대한 연구가 주를 이루고 있다. 따라서 본 논문에서는 3차원 공간에서 관측자의 시점을 기준으로 객체 사이의 방향관계를 검색할 수 있는 시점기반 방향관계 표현 기법을 제시하고 이를 이용한 검색 기법에 대해서 기술한다. 본 논문에서는 3차원 방향관계의 표현을 위해 절대시점 기반의 2차원 공간관계 표현 기법인 2D 스트링을 확장한 3D 스트링 기법을 정의하였다. 또한 관측자를 기준으로 한 객체들 간의 상대적인 방향관계를 효율적으로 추출하기 위한 기법을 제시한다. 본 논문에서 제시한 기법은 3D 스트링으로 표현된 3차원 객체의 공간관계를 2차원+1차원으로 분리하여 처리하도록 함으로서 차원의 감소를 통한 시점기반 방향관계 검색 과정을 단순화할 수 있다는 장점을 갖는다. Spatial relations among objects are one of the most frequently used searching criteria for a query based on the contents of 3-D images. However, the existing researches have mainly focused only the absolute directional relations based on a fixed viewpoint in 2-D images. So, this paper presents a representation method of viewpoint-based directional relations that enables spatial relations among objects to be retrieved based on a viewpoint of an observer. The retrieval technique based on our method is also described. In this paper, the notion of 3D string is defined to express the spatial relations in a 3-D space. A retrieval method based on relative directional relations among objects from a viewpoint of an observer is also presented. The proposed method simplifies the retrieval of viewpoint-based directional relations because 2D+1D scheme reduces the dimension.

      • KCI등재후보

        화자 인식을 통한 등장인물 기반의 비디오 요약

        이순탁,김종성,강찬미,백중환,Lee Soon-Tak,Kim Jong-Sung,Kang Chan-Mi,Baek Joong-Hwan 한국융합신호처리학회 2005 융합신호처리학회 논문지 (JISPS) Vol.6 No.4

        본 논문에서는 인물 기반의 비디오 요약 방법으로써 비디오 내 음성정보를 이용하여 화자 인식 기법을 통한 등장인물 중심의 요약 기법을 제안한다. 먼저, 얼굴 영역을 포함하는 장면을 중심으로 비디오로부터 배우의 대사에 해당하는 음성 정보를 분리하고, 화자 인식 기법을 수행하여 등장인물 별로 분류하였다. 화자인식 기법은 각 화자별로 MFCC(Mel Frequency Cepstrum Coefficient) 값을 추출하고 GMM(Gaussian Mixture Model)을 이용하여 분류한다. 본 논문에서는 4명의 등장인물에 대해 GMM을 학습시키고 4명 중 1명을 검출하는 실험을 통해 학습된 GMM 분류기가 실험 비디오에 대해 0.138 정도의 오분류율을 보임을 확인하였다. In this paper, we propose a character-based summarization algorithm using speaker identification method from the dialog in video. First, we extract the dialog of shots containing characters' face and then, classify the scene according to actor/actress by performing speaker identification. The classifier is based on the GMM(Gaussian Mixture Model) using the 24 values of MFCC(Mel Frequency Cepstrum Coefficient). GMM is trained to recognize one actor/actress among four who are all trained by GMM. Our experiment result shows that GMM classifier obtains the error rate of 0.138 from our video data.

      연관 검색어 추천

      이 검색어로 많이 본 자료

      활용도 높은 자료

      해외이동버튼