RISS 학술연구정보서비스

검색
다국어 입력

http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.

변환된 중국어를 복사하여 사용하시면 됩니다.

예시)
  • 中文 을 입력하시려면 zhongwen을 입력하시고 space를누르시면됩니다.
  • 北京 을 입력하시려면 beijing을 입력하시고 space를 누르시면 됩니다.
닫기
    인기검색어 순위 펼치기

    RISS 인기검색어

      검색결과 좁혀 보기

      선택해제
      • 좁혀본 항목 보기순서

        • 원문유무
        • 원문제공처
        • 등재정보
        • 학술지명
        • 주제분류
        • 발행연도
          펼치기
        • 작성언어
        • 저자
          펼치기

      오늘 본 자료

      • 오늘 본 자료가 없습니다.
      더보기
      • 무료
      • 기관 내 무료
      • 유료
      • RGB-D 영상 기반 맨손-평면 접촉점 검출 알고리즘

        장영균(Youngkyoon Jang),노승탁(Seungtak Noh),우운택(Woontack Woo) 한국HCI학회 2014 한국HCI학회 학술대회 Vol.2014 No.2

        본 논문에서는 컬러-깊이 (RGB-D) 영상을 기반으로 맨손-평면 접촉점을 검출하는 알고리즘을 제안한다. 제안하는 알고리즘은 깊이 영상으로부터 생성된 점군을 다운샘플링하고 RANSAC 방법을 활용하여 평면을 검출함으로써 다수 객체가 평면을 가리는 상황에서도 안정적으로 평면을 검출 한다. 또한 제안하는 알고리즘은 객체 후보군을 먼저 군집화 한 다음에 손을 판별함으로써 손과 비슷한 색을 가지는 평면 환경에서도 정확한 맨손-평면 접촉점을 검출 한다. 앞서 다운샘플링된 점군 중에서도 손 포함 객체 점군만을 접촉점 검출에 활용함으로써 제안하는 알고리즘은 16 FPS의 빠른 처리 속도를 보인다. 이는 이전 기술과는 달리 정돈되지 않은 평면 환경에서도 맨손-평면 접촉점 검출을 수행함으로써 향후 다양한 인터랙션에 이용되는 핵심 기술이다. This paper presents bare hand-plane touch points detection algorithm based on color and depth image. The proposed algorithm downsamples point clouds, which are generated from depth image. Then, by utilizing RANSAC method, the algorithm stably detects a plane surface even though the surface is occluded by multiple objects. Moreover, the algorithm is robust to detect hand-plane touch points even though the colors of the surface and hand are quite similar, because it distinguishes an object including bare hand after clustering candidate objects. The processing time of the proposed algorithm is around 16 FPS, which is achievable based on the downsampled point clouds only including a hand-included object. The proposed algorithm could be the core technique for the interactions utilizing touch points of bare hand in a disordered plane environment.

      • KCI등재

        3차원 객체인식을 위한 보완적 특징점 기반 기술자

        장영균(Youngkyoon Jang),김주환(Ju-Whan Kim),문승건(Seung geon Moon),남택진(Tek-Jin Nam),권동수(Dong soo Kwon),우운택(Woontack Woo) 한국정보과학회 2012 정보과학회논문지 : 소프트웨어 및 응용 Vol.39 No.11

        본 논문에서는 기존의 특징점 기반 객체 인식 방법의 확장으로 보완적 특징점 기반의 컬러 정보를 포함하는 기술자를 활용하는 객체 인식 방법을 제안한다. 제안하는 방법은 무늬가 적은 객체에서도 에지의 위치를 샘플링함으로써 보완적 특징점을 생성해 낸다. 그리고 검출된 보완적 특징점으로부터 얻어지는 그레이 값 변화도방향 정보와 컬러 정보를 가지고 있는 기술자를 생성한다. 그리고 생성된 기술자를 객체 단위로 묶어 낼 수 있도록 하는 코드북(Codebook)을 학습함으로써 각 객체를 구분해 낼 수 있는 강건한 히스토그램를 생성한다. 생성된 코드북을 활용함으로써 제안하는 방법은 객체의 크기 및 환경(조명, 스케일) 변화, 3차원 회전의 경우에도 기존의 방법보다 강건하게 인식한다. 실험 결과 제안하는 방법은 73.66%로써 기존의 방법에 비해 약 10% 인식률 향상을 보이는 것을 확인하였다. 특히 조잡한 배경에 대해서는 18%의 인식성능 향상을 확인하였다. 제안하는 방법은 도전적인 환경에서 강건한 인식성능 보임으로써 실세계 증강현실 응용에서 정보 제시를 위해 가장 먼저 이루어지는 핵심 기술로써 활용될 수 있다. This paper represents a novel object recognition method utilizing complementary feature-point-based descriptor containing color information, which is an extension of the common feature-point-based object recognition. The proposed method generates complementary feature points even in the case of less textured object by sampling the positions along edges of the object. Then, based on the extracted feature points, it generates feature descriptors, which contain gradient orientation and color information. Then the method learns a codebook so that the codebook integrates the extracted feature points into a histogram. As experiments, the proposed method shows 73.66% of accuracy. Especially, it is much robust in terms of the cluttering case. The method could be used as a core technology of the initial step of the information retrieval.

      • RGB-D 영상 기반 다수 객체 구역화 및 인식

        장영균(Youngkyoon Jang),우운택(Woontack Woo) 한국HCI학회 2013 한국HCI학회 학술대회 Vol.2013 No.1

        본 논문에서는 동기화 되어 얻어진 컬러(RGB) 영상과 깊이(Depth) 영상을 상호 보완적으로 사용하여 다수의 객체 구역화 하고 인식하는 방법을 제안한다. 제안하는 방법은 깊이 영상을 기반으로 하여 배경이 되는 평면을 분할(segmentation) 함으로써 영상에 객체가 몇 개 있는지 모르는 상황에서 임의의 다수 객체 검출을 수행한다. 이 검출된 객체들을 포함하는 다수 관심영역(Region of interests)을 기반으로 제안하는 방법은 특징점 검출을 수행하고 기존에 생성한 코드북(codebook)를 활용함으로써 3차원 객체의 자세와 스케일에 관계없는 강건한 BoF(Bag-of-Features)를 생성한다. 이 생성된 BoF 히스토그램은 이후 미리 학습된 랜덤 포레스트(Random Forest) 기반의 구분자(classifier)를 이용함으로써 객체를 인식한다. 제안하는 방법은 임의의 카메라 자세(pose)에서 취득된 영상에 대해서도 사용자의 최소한의 참여를 통해 강건하게 배경을 제거하고 임의 개수의 객체를 검출 할 수 있으며, BoF 모델을 이용함으로써 3차원 객체의 다양한 시점에 대해서도 빠르고 강건한 인식을 지원한다. 제안하는 방법은 증가하는 공간 단위에서의 3차원 객체인식의 핵심 기술로 활용 될 수 있다. This paper presents RGB-D image-based multiple objects localization and recognition. The proposed method segments background region and localizes multiple objects based on a depth image in the case of unknown object number. Then the method extracts corner points within a localized ROI (Region of Interests) of a RGB image. Then the method makes descriptors and BoF(Bag-of-Features) through the pre-learned codebook. The BoF histogram is then passed through the pre-learned Random Forest-based classifier. The classifier determines recognized object index. The proposed method is robust to 3D rotation and scale changes of a 3D object. It also guarantees fast and accurate object localization even though there is no prior information such as existing object number. The proposed method can be used as a core technology of the 3D object recognition in order to provide related information of an object.

      • KCI등재

        모바일 폰 터치스크린에서 허프변환 기반의 반자동식 정점 검출 알고리즘

        장영균(Youngkyoon Jang),우운택(Woontack Woo) 한국정보과학회 2010 정보과학회 컴퓨팅의 실제 논문지 Vol.16 No.5

        본 논문에서는 모바일 폰 터치스크린에서 허프변환(hough transform) 방법을 이용한 반자동식 정점(vertex) 검출 알고리즘을 제안한다. 제안하는 방법은 사용자의 입력 위치를 기준으로 작은 범위의 ROI(region of interest) 영역 내에서 한정된 매개변수 범위를 탐색하는 허프 변환을 수행함으로써 빠른 처리속도를 보인다. 또한 허프 변환을 통해 검출된 후보직선 중에서 사용자 입력 위치와 가까운 두 직선을 선택함으로써 영상의 잡음으로 인해 잘못 검출된 후보 직선을 제거할 수 있다. 그리고 검출된 두 직선의 교점을 정점으로 검출함으로써 초기 정점 선택을 위한 입력 이외의 추가적인 상호작용 과정 없이 정확한 정점을 검출할 수 있다. 결과적으로 본 논문에서는 실험을 통해서 제안하는 알고리즘이 센싱 정밀도가 낮은 터치스크린(평균 센싱 오류: 6.3픽셀)에서의 부정확한 입력(5.7 픽셀)에도 1.4픽셀 정도의 정확한 정점 검출 성능을 보이는 것을 확인할 수 있었다. This paper proposes hough transformbased semi-automatic vertex detection algorithm for object modeling on a mobile phone supporting touchscreens. The proposed algorithm shows fast processing time by searching the limited range of parameters for computing hough transform with a small range of ROI image. Moreover, the proposed algorithm removes bad candidates among the detected lines by selecting the two closest candidate lines from the position of user's input. After that, it accurately detects an interesting vertex without additionally required interactions by detecting an intersection point of the two lines. As a result, we believe that the proposed algorithm shows a 1.4 pixel distance error on average as a vertex detection accuracy under such conditions as a 5.7 pixel distance error on average as an inaccurate input.

      연관 검색어 추천

      이 검색어로 많이 본 자료

      활용도 높은 자료

      해외이동버튼