RISS 학술연구정보서비스

검색
다국어 입력

http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.

변환된 중국어를 복사하여 사용하시면 됩니다.

예시)
  • 中文 을 입력하시려면 zhongwen을 입력하시고 space를누르시면됩니다.
  • 北京 을 입력하시려면 beijing을 입력하시고 space를 누르시면 됩니다.
닫기
    인기검색어 순위 펼치기

    RISS 인기검색어

      KCI등재

      일반화된 4차원 특징을 이용한 행동 방향 인식

      한글로보기

      https://www.riss.kr/link?id=A100229096

      • 0

        상세조회
      • 0

        다운로드
      서지정보 열기
      • 내보내기
      • 내책장담기
      • 공유하기
      • 오류접수

      부가정보

      국문 초록 (Abstract)

      본 논문에서는 4차원 시공간 (4D-ST, [x,y,z,t]) 특징을 이용하여 행동 방향을 인식하는 방법을 제안한다. 이를 위해 4차원 시공간 특징점 (4D-STIPs, [x,y,z,t])을 제안하였고, 이는 여러 다른 뷰에서 ...

      본 논문에서는 4차원 시공간 (4D-ST, [x,y,z,t]) 특징을 이용하여 행동 방향을 인식하는 방법을 제안한다. 이를 위해 4차원 시공간 특징점 (4D-STIPs, [x,y,z,t])을 제안하였고, 이는 여러 다른 뷰에서 촬영한 이미지들로부터 복원된 3차원 공간(3D-S, [x,y,z]) 볼륨으로부터 계산된다. 3차원 공간정보를 갖고 있는 3D-S 볼륨과 4D-STIPs는 2차원 공간 (2D-S, [x,y]) 뷰로 사영을 하여 임의의 2D-S 뷰에서의 특징을 생성해 낼 수 있다. 이 때, 사영 방향을 결정 할 수 있으므로, 학습 시 방향에 대한 정보를 포함하여 행동 방향을 인식 할 수 있다. 행동 방향을 인식하는 과정은 두 단계로 나눌 수 있는데, 우선 어떤 생동인지를 인식하고 그 후, 방향 정보를 이용하여 최종적으로 행동 방향을 인식한다. 행동 인식과 방향 인식을 위해, 사영된 3D-S 볼륨과 4D-STIPs은 각각 움직이는 부분과 움직이지 않는 부분에 대한 정보를 담고 있는 motion history images (MHIs)와 non-motion history images (NMHIs)로 구성된다. 이러한 특징들은 행동 인식을 위해, 방향 정보에 상관 없이 같은 행동이면 같은 클래스로 분류되어 support vector data description (SVDD) 분류기로 학습되고, support vector domain density description (SVDDD)을 이용하여 인식된다. 인식된 행동에서 최종적으로 방향을 인식하기 위해 각 행동을 방향 클래스로 분류하여 SVDD 분류기로 학습하고 SVDDD로 인식한다. 제안된 방법의 성능을 보이기 위해서 INRIA Xmas Motion Acquisition Sequences (IXMAS) 데이터셋에서 제공하는 3D-S 볼륨을 사용하여 학습을 하고, 행동 방향 인식 실험이 가능한 SNU 데이터셋을 구축하여 인식 실험을 하였다.

      더보기

      다국어 초록 (Multilingual Abstract)

      In this paper, we propose a method to recognize the action direction of human by developing 4D space-time (4D-ST, [x,y,z,t]) features. For this, we propose 4D space-time interest points (4D-STIPs, [x,y,z,t]) which are extracted using 3D space (3D-S, [...

      In this paper, we propose a method to recognize the action direction of human by developing 4D space-time (4D-ST, [x,y,z,t]) features. For this, we propose 4D space-time interest points (4D-STIPs, [x,y,z,t]) which are extracted using 3D space (3D-S, [x,y,z]) volumes reconstructed from images of a finite number of different views. Since the proposed features are constructed using volumetric information, the features for arbitrary 2D space (2D-S, [x,y]) viewpoint can be generated by projecting the 3D-S volumes and 4D-STIPs on corresponding image planes in training step. We can recognize the direction of actors in the test video since our training sets, which are projections of 3D-S volumes and 4D-STIPs to various image planes. contain the direction information. The process for recognizing action direction is divided into two steps. firstly we recognize the class of actions and then recognize the action direction using direction information. For the action and direction of action recognition, with the projected 3D-S volumes and 4D-STIPs we construct motion history images (MHIs) and non-motion history images (NMHIs) which encode the moving and non-moving parts of an action respectively. For the action recognition, features are trained by support vector data description (SVDD) according to the action class and recognized by support vector domain density description (SVDDD). For the action direction recognition after recognizing actions, each actions are grained using SVDD according to the direction class and then recognized by SVDDD. In experiments, we train the models using 3D-S volumes from INRIA Xmas Motion Acquisition Sequences (IXMAS) dataset and recognize action direction by constructing a new SNU dataset made for evaluating the action direction recognition.

      더보기

      목차 (Table of Contents)

      • 요약
      • Abstract
      • 1. 서론
      • 2. 제안한 방법
      • 3. 실험 및 결과
      • 요약
      • Abstract
      • 1. 서론
      • 2. 제안한 방법
      • 3. 실험 및 결과
      • 4. 결론
      • References
      더보기

      참고문헌 (Reference)

      1 Cen Rao, "View-invariant representation and recognition of actions" 50 (50): 203-226, 2002

      2 Xinxiao Wu, "View-invariant action recognition using latent kernelized structural SVM" 2012

      3 Yuping Shen, "View-invariant action recognition using fundamental ratios" 2008

      4 Vasu Parameswaran, "View invariants for human action recognition" 66 (66): 83-101, 2006

      5 Aaron F. Bobick, "The recognition of human movement using temporal templates" 23 (23): 257-267, 2001

      6 David M. J. Tax, "Support vector data description" 54 : 45-66, 2004

      7 Lu Xia, "Spatio-temporal depth cuboid similarity feature for activity recognition using depth camera" 2013

      8 Ivan Laptev, "On space-time interest points" 64 (64): 107-123, 2005

      9 Richard Hartley, "Multiple view geometry" Cambridge University Press 2000

      10 Fan Zhu, "Multi-view action recognition using local similarity random forests and sensor fusion" 34 : 20-24, 2013

      1 Cen Rao, "View-invariant representation and recognition of actions" 50 (50): 203-226, 2002

      2 Xinxiao Wu, "View-invariant action recognition using latent kernelized structural SVM" 2012

      3 Yuping Shen, "View-invariant action recognition using fundamental ratios" 2008

      4 Vasu Parameswaran, "View invariants for human action recognition" 66 (66): 83-101, 2006

      5 Aaron F. Bobick, "The recognition of human movement using temporal templates" 23 (23): 257-267, 2001

      6 David M. J. Tax, "Support vector data description" 54 : 45-66, 2004

      7 Lu Xia, "Spatio-temporal depth cuboid similarity feature for activity recognition using depth camera" 2013

      8 Ivan Laptev, "On space-time interest points" 64 (64): 107-123, 2005

      9 Richard Hartley, "Multiple view geometry" Cambridge University Press 2000

      10 Fan Zhu, "Multi-view action recognition using local similarity random forests and sensor fusion" 34 : 20-24, 2013

      11 Daniel Weinland, "Making action recognition robust to occlusions ans viewpoint changes" 2010

      12 Jingjing Zheng, "Learning view-invariant sparse representation for cross-view action recognition" 2013

      13 Jingen Liu, "Learning human actions via information maximization" 2008

      14 Pingkun Yan, "Learning 4D action feature models or arbitrary view action recognition" 2008

      15 Kishore K Reddy, "Incremental action recognition using feature-tree" 2009

      16 Omar Oreifej, "HON4D: histogram of oriented 4D normals for activity recognition from depth sequences" 2013

      17 Jiajia Luo, "Group sparsity and geometry constrained dictionary learning for action recognition from depth maps" 2013

      18 Mohamed Becha Kaaniche, "Gesture recognition by learning local motion signature" 2011

      19 Daniel Weinland, "Free viewpoint action recognition using motion history volumes" 104 (104): 2006

      20 Myoung Soo Park, "Feature extraction using class-augmented principal component analysis" 4132 : 606-615, 2006

      21 Woo Sung Kang, "Domain density description for multiclass pattern classification with reduced computational load" 2007

      22 Binlong Li, "Cross-view activity recognition using Hankelets" 2012

      23 Jingen Liu, "Cross-view action recognition via view knowledge transfer" 2011

      24 Jingjing Zheng, "Cross-view action recognition via a transferable dictionary pair" 2012

      25 Imran N. Junejo, "Cross-view action recognition from temporal self-similarities" 2008

      26 Daniel Weinland, "Action recognition from arbitrary views using 3D exemplars" 2007

      27 Saad M. Khan, "A homographic framework for the fusion of multi-view silhouettes" 2007

      28 Chris Harris, "A combined corner and edge detector" 1988

      29 Magnus Burenius, "3D pictorial structures for multiple view articulated pose estimation" 2013

      더보기

      동일학술지(권/호) 다른 논문

      동일학술지 더보기

      더보기

      분석정보

      View

      상세정보조회

      0

      Usage

      원문다운로드

      0

      대출신청

      0

      복사신청

      0

      EDDS신청

      0

      동일 주제 내 활용도 TOP

      더보기

      주제

      연도별 연구동향

      연도별 활용동향

      연관논문

      연구자 네트워크맵

      공동연구자 (7)

      유사연구자 (20) 활용도상위20명

      인용정보 인용지수 설명보기

      학술지 이력

      학술지 이력
      연월일 이력구분 이력상세 등재구분
      2023 평가예정 재인증평가 신청대상 (재인증)
      2020-01-01 평가 등재학술지 선정 (재인증) KCI등재
      2019-12-01 평가 등재후보로 하락 (계속평가) KCI등재후보
      2016-01-01 평가 등재학술지 선정 (계속평가) KCI등재
      2015-12-01 평가 등재후보로 하락 (기타) KCI등재후보
      2011-01-01 평가 등재학술지 유지 (등재유지) KCI등재
      2009-01-01 평가 등재학술지 유지 (등재유지) KCI등재
      2008-02-20 학술지명변경 한글명 : 한국퍼지및지능시스템학회 논문지 -> 한국지능시스템학회 논문지
      외국어명 : 미등록 -> Journal of Korean Institute of Intelligent Systems
      KCI등재
      2008-02-18 학회명변경 한글명 : 한국퍼지및지능시스템학회 -> 한국지능시스템학회
      영문명 : Korea Fuzzy Logic And Intelligent Systems Society -> Korean Institute of Intelligent Systems
      KCI등재
      2007-01-01 평가 등재학술지 유지 (등재유지) KCI등재
      2005-01-01 평가 등재학술지 유지 (등재유지) KCI등재
      2002-01-01 평가 등재학술지 선정 (등재후보2차) KCI등재
      1999-07-01 평가 등재후보학술지 선정 (신규평가) KCI등재후보
      더보기

      학술지 인용정보

      학술지 인용정보
      기준연도 WOS-KCI 통합IF(2년) KCIF(2년) KCIF(3년)
      2016 0.62 0.62 0.63
      KCIF(4년) KCIF(5년) 중심성지수(3년) 즉시성지수
      0.56 0.49 0.866 0.2
      더보기

      이 자료와 함께 이용한 RISS 자료

      나만을 위한 추천자료

      해외이동버튼