RISS 학술연구정보서비스

검색
다국어 입력

http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.

변환된 중국어를 복사하여 사용하시면 됩니다.

예시)
  • 中文 을 입력하시려면 zhongwen을 입력하시고 space를누르시면됩니다.
  • 北京 을 입력하시려면 beijing을 입력하시고 space를 누르시면 됩니다.
닫기
    인기검색어 순위 펼치기

    RISS 인기검색어

      검색결과 좁혀 보기

      선택해제
      • 좁혀본 항목 보기순서

        • 원문유무
        • 원문제공처
        • 등재정보
        • 학술지명
          펼치기
        • 주제분류
        • 발행연도
          펼치기
        • 작성언어
        • 저자
          펼치기

      오늘 본 자료

      • 오늘 본 자료가 없습니다.
      더보기
      • 무료
      • 기관 내 무료
      • 유료
      • 제스처 기반의 HTPC 인터페이스

        권경수(Kyung Su Kwon),김상호(Sang Ho Kim),장재식(Jea Sig Chang),김항준(Hang Joan Kim) 한국정보과학회 2004 한국정보과학회 학술발표논문집 Vol.31 No.2Ⅱ

        본 논문에서는 HTPC를 제어하기 위한 제스처 기반의 인터페이스를 제안한다. 제안된 인터페이스를 이용하여 사용자는 HTPC와 떨어진 장소에서 쉽게 HTPC를 제어할 수 있다. 제스처를 인식하기 위해 인터페이스는 실시간 연속 영상으로부터 사용자의 손을 검출하고, 손의 움직임, 모양, 위치 정보를 추출한다. 사용자의 제스처를 인식하기 위해 추출된 정보와 HMMs을 사용한다. 실험 결과는 제안한 인터페이스가 멀티미디어 응용프로그램뿐만 아니라 다른 종류의 컴퓨터 응용프로그램에서 사용자와 HTPC간에 상호작용하여 접근할 수 있음을 보인다.

      • Mean Shift Clustering을 이용한 영상 검색결과 개선

        권경수(Kyung Su Kwon),신윤희(Yunhee Shin),김영래(Youngrae Kim),김은이(Eun Yi Kim) 한국산업정보학회 2009 한국산업정보학회 학술대회논문집 Vol.2009 No.5

        본 논문에서는 감성 공간에서 mean shift clustering과 user feedback을 이용하여 영상 검색 결과를 개선하기 위한 시스템을 제안한다. 제안된 시스템은 사용자 인터페이스, 감성 공간 변환, 검색결과 순위 재지정(re0ranking)으로 구성된다. 사용자 인터페이스는 텍스트 형태의 질의 입력과 감성 어휘선택에 따른 user feedback에 의해 개선된 검색결과를 보인다. 사용된 감성 어휘는 고바야시가 정의한 romantic, natural, casual, elegant, chic, classic, dandy, modern 등의 8개 어휘를 사용한다. 감성 공간 변환 단계에서는 입력된 질의에 따라 웹 영상 검색 엔진(Yahoo)에 의해 검색된 결과 영상들에 대해 컬러와 패턴정보의 특징을 추출하고, 이를 입력으로 하는 8개의 각 감성별 분류기에 의해 각 영상은 8차원 감성 공간으로의 특징 벡터로 변환된다. 이때 감성 공간으로 변환된 특징 벡터들은 mean shift clustering을 통해 군집화 되고, 그 결과로써 대표 클러스터를 찾게 된다. 검색결과 순위 재지정 단계에서는 user feedback 유무에 따라 대표 클러스터의 평균 벡터와 user feedback에 의해 생성된 사용자 감성 벡터에 의해 검색 결과를 개선할 수 있다. 이때 각 기준에 따라 유사도가 결정되고 검색결과 순위가 재지정 된다. 제안된 시스템의 성능을 검증하기 위해 7개의 질의의 각 400장, 총 2,800장에 대한 Yahoo검색 결과와 제안된 시스템을 개선된 검색 결과를 비교하였다.

      • KCI등재

        의료용 설문지 자동인식 시스템 개발

        권경수(Kwon Kyung Su),김항준(Kim Hang-Joon),박세현(Park Se-Hyun) 한국산업정보학회 2017 한국산업정보학회논문지 Vol.22 No.2

        본 논문에서는 비전 기술을 이용한 의료용 설문지 인식 시스템 개발을 제안한다. 제안한 시스템은 의료 보건 분야의 지역사회 건강조사에서 사용되는 대량의 설문지를 대상으로 정확한 인식 및 효과적 일괄처리를 할 수 있다. 시스템은 설문지 스캐닝, 답안 인식 및 오류 데이터처리, 결과데이터 검증, 이미지 저장 및 DB구축, 설문결과 분석으로 구성되어 있다. 기존의 자동인식을 위한 시스템과 달리 사용하는 설문의 양식에서 자유롭고, 다양한 표기와 오표기를 처리하여 정확한 인식을 가능하게 한다. 제안한 시스템은 실험을 통해 표기에 대한 98.9% 인식률을 확인하였다. In This Paper, We Propose the Development of a Medical Questionnaire Recognition System using Vision Technology. The Proposed System is Able to Accurately Recognize and Effectively Process a Large Number of Questionnaires used in Community Health Surveys in the Medical and Health Fields. The System Consists of Questionnaire Scanning, Answer Recognition and Error Data Processing, Result Data Verification, Image Storage and DB Construction, and Analysis of Questionnaire Results. Unlike Existing Systems, This System is Free from the Form of Questionnaires used, and Enables Accurate Recognition by Processing Various Markings and Erroneous Markings. Experimental Results Show that the Proposed System has 98.9% Recognition rate.

      • SCOPUSKCI등재
      • 감성 개념을 이용한 웹 이미지 검색 결과 분류

        김영래(Youngrae Kim),권경수(Kyung Su Kwon),신윤희(Yunhee Shin),김은이(Eun Yi Kim) 한국HCI학회 2009 한국HCI학회 학술대회 Vol.2009 No.2

        영상 검색에서 보다 빠르고 정확한 결과를 제공하기 위해 많은 시스템들은 결과내 재검색을 위한 카테고리 내 검색을 제공하고 있다. 이를 위해, 본 논문에서는 감성 카테고리를 사용하여 영상을 분류하는 시스템을 제안한다. 제안된 시스템은 영상에 포함된 컬러와 패턴정보를 가지고 감성 벡터를 추출하여, 각 영상을 8 개의 감성 카테고리로 분류한다. 이때, 감성카테고리는 고바야시가 정의한 8 개의 어휘 {romantic, natural, casual, elegant, chic, classic, dandy, modern}를 사용한다. 질의에 대한 결과가 주어지면, 사용자는 선택한 감성 카테고리로 재분류된 영상들을 제공받을 수 있다. 제안된 시스템의 성능을 평가하기 위하여 야후 이미지 검색에서 수집된 풍경 영상 1,000 장으로 사용자 평가를 실시하였으며 이를 통해 제안된 시스템의 성능을 증명하였다. In this paper, we present a novel system to categorize web image search results using emotional concepts and to browse the results more conveniently and easily. The proposed system can categorize search results into 8 emotional categories based on emotion vector, which obtained by color and pattern features. Here, we use Kobayashi's emotional categories: {romantic, natural, casual, elegant, chic, classic, dandy and modern}. With search results for a given query, the proposed system can provide categorized images for each emotional category. With 1,000 Yahoo! search images, we compared the proposed method with Yahoo! image search engine in respect of satisfaction, efficiency, convenience and relevance with a user study. Our experimental results show the effectiveness of the proposed method.

      • KCI등재
      • 지능형 휠체어의 장애물 감지를 위한 초음파 센서의 배열

        김태의 ( Tae-ui Kim ),권경수 ( Kyung-su Kwon ),박세현 ( Se-hyun Park ) 한국정보처리학회 2009 한국정보처리학회 학술대회논문집 Vol.16 No.1

        지능형 휠체어 구현에 있어 초음파 센서의 배열은 전동휠체어가 장애물을 감지할 수 있는 능력을 결정한다. 따라서 본 논문에서는 지능형 휠체어의 장애물 감지를 위한 초음파 센서의 효과적인 배열 방법을 제안한다. 초음파 센서 모듈은 총 10개의 4개 세트로 구성되어 있다. 전동 휠체어의 전방, 좌, 우측에는 각각 3개의 센서를 48도씩 중첩되게 겹쳐 하나의 세트로 구성하고, 후방에는 하나의 센서를 구성한다. 지능형 휠체어는 사용자 인터페이스, 장애물 회피 모듈, 모터 제어 모듈, 초음파 센서 모듈로 구성된다. 사용자 인터페이스는 정해진 명령을 하달 받고, 모터 제어 모듈은 하달된 명령과 센서들에 의해 반환된 장애물과의 거리 정보로 모터제어보드에 연결되어 있는 두 개의 좌우 모터들을 조종한다. 센서 모듈은 전동휠체어가 움직이는 동안에 주기적으로 센서들로부터 거리 값을 반환 받아 벽 또는 장애물을 감지하여 장애물의 위치를 사용자 인터페이스를 통해서 알려 주고, 또한 장애물 회피 모듈에 의해 장애물을 우회 하도록 움직인다. 제안된 방법의 센서 배열은 실험을 통해 지능형 휠체어가 임의로 설치된 장애물을 효과적으로 감지하고 보다 정확하게 장애물을 회피 할 수 있음을 보였다.

      • 지능형 휠체어를 위한 시선 인식 인터페이스 개발

        김태의(Tae Ui Kim),이상윤,권경수(Kyung Su Kwon),박세현(Se Hyun Park) 한국멀티미디어학회 2009 한국멀티미디어학회 학술발표논문집 Vol.2009 No.1

        본 논문에서는 지능형 휠체어를 위한 시선 인식 인터페이스에 대해 제안한다. 시선 인식 인터페이스는 조이스틱을 움직이기 힘든 중증 장애인을 위해 시선 인식 및 추적을 이용하여 전동 휠체어를 움직일 수 있게 하는 사용자 인터페이스이다. 지능형 휠체어는 시선인식 및 추적 모듈, 사용자 인터페이스, 장애물 회피 모듈, 모터 제어 모듈, 초음파 센서 모듈로 구성된다. 시선 인식 및 추적 모듈은 적외선 카메라와 두개의 광원으로 사용자 눈의 각막 표면에 두 개의 반사점을 생성하고, 중심점을 구한 뒤, 동공의 중심점과 두 반사점의 중심을 이용하여 시선을 인식하고 추적 한다. 제안된 방법의 시선 인식 인터페이스는 실험을 통해 시선을 이용하여 지능형 휠체어에 명령을 하달하고 지능형 휠체어가 임의로 설치된 장애물을 감지하고 정확하게 장애물을 회피 할 수 있음을 보였다.

      • KCI등재

        손 제스처 기반의 애완용 로봇 제어

        박세현(Se-Hyun Park),김태의(Tae-Ui Kim),권경수(Kyung-Su Kwon) 한국산업정보학회 2008 한국산업정보학회논문지 Vol.13 No.4

        본 논문에서는 애완용 로봇에 장착된 카메라로부터 획득된 연속 영상에서 사용자의 손 제스처를 인식하여 로봇을 제어하는 시스템을 제안한다. 제안된 시스템은 손 검출, 특징 추출, 제스처 인식, 로봇제어의 4단계로 구성된다. 먼저 카메라로부터 입력된 영상에서 HSI 색상공간에 정의된 피부색 모델과 연결성분 분석을 이용하여 손 영역을 검출한다. 다음은 연속 영상에서 손 영역의 모양과 움직임에 따른 특징을 추출한다. 이때 의미 있는 제스처의 구분을 위해 손의 모양을 고려한다. 그 후에 손의 움직임에 의해 양자화된 심볼들을 입력으로 하는 은닉 마르코프 모델을 이용하여 손 제스처는 인식된다. 마지막으로 인식된 제스처에 대응하는 명령에 따라 애완용 로봇이 동작하게 된다. 애완용 로봇을 제어하기 위한 명령으로 앉아, 일어서, 엎드려, 악수 등의 제스처를 정의하였다. 실험결과로 제안한 시스템을 이용하여 사용자가 제스처로 애완용 로봇을 제어 할 수 있음을 보였다. In this paper, we propose the pet robot control system using hand gesture recognition in image sequences acquired from a camera affixed to the pet robot. The proposed system consists of 4 steps; hand detection, feature extraction, gesture recognition and robot control. The hand region is first detected from the input images using the skin color model in HSI color space and connected component analysis. Next, the hand shape and motion features from the image sequences are extracted. Then we consider the hand shape for classification of meaning gestures. Thereafter the hand gesture is recognized by using HMMs (hidden markov models) which have the input as the quantized symbol sequence by the hand motion. Finally the pet robot is controlled by a order corresponding to the recognized hand gesture. We defined four commands of sit down, stand up, lie flat and shake hands for control of pet robot. And we show that user is able to control of pet robot through proposed system in the experiment.

      연관 검색어 추천

      이 검색어로 많이 본 자료

      활용도 높은 자료

      해외이동버튼