RISS 학술연구정보서비스

검색
다국어 입력

http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.

변환된 중국어를 복사하여 사용하시면 됩니다.

예시)
  • 中文 을 입력하시려면 zhongwen을 입력하시고 space를누르시면됩니다.
  • 北京 을 입력하시려면 beijing을 입력하시고 space를 누르시면 됩니다.
닫기
    인기검색어 순위 펼치기

    RISS 인기검색어

      검색결과 좁혀 보기

      선택해제
      • 좁혀본 항목 보기순서

        • 원문유무
        • 원문제공처
        • 등재정보
        • 학술지명
          펼치기
        • 주제분류
        • 발행연도
        • 작성언어
        • 저자
          펼치기

      오늘 본 자료

      • 오늘 본 자료가 없습니다.
      더보기
      • 무료
      • 기관 내 무료
      • 유료
      • KCI등재

        포인트 클라우드를 이용한 파이프라인 연결 자동 모델링에 관한 연구

        이재원(Jae Won Lee),아쇽 쿠말 파틸(Ashok Kumar Patil),파비트라 홀리(Pavitra Holi),채영호(Young Ho Chai) (사)한국CDE학회 2016 한국CDE학회 논문집 Vol.21 No.3

        Manual 3D pipeline modeling from LiDAR scanned point cloud data is laborious and time-consuming process. This paper presents a method to extract the pipe, elbow and branch information which is essential to the automatic modeling of the pipeline connection. The pipe geometry is estimated from the point cloud data through the Hough transform and the elbow position is calculated by the medial axis intersection for assembling the nearest pair of pipes. The branch is also created for a pair of pipe segments by estimating the virtual points on one pipe segment and checking for any feasible intersection with the other pipe’s endpoint within the pre-defined range of distance. As a result of the automatic modeling, a complete 3D pipeline model is generated by connecting the extracted information of pipes, elbows and branches.

      • Sensed Unit Motion based Authoring for the Precise Human Movements

        Bharatesh Chakravarthi(바라테스),Ashok Kumar Patil(아쇽 쿠말 파틸),Adithya Balasubramanyam(아디띠야 비),Jae Yeong Ryu(류재영),Young Ho Chai(채영호) 대한기계학회 2020 대한기계학회 춘추학술대회 Vol.2020 No.12

        With the expeditious advancements in Motion Capture (mocap) systems, maneuvering motion data for extensive usage is a challenging task. In this paper, we propose a comprehensive technique to author new motion or modify existing motion data by considering vital motion parameters. Motion data is a collection of motion frames where each frame corresponds to the position and orientation of bone segments. Unit motion is a sequence of motion between any two keyframes captured either using a mocap system or authored using a conventional motion authoring tool. We consider a predefined set of unit motions to author precise human movements. Unit motion editing modifies swing, twist, and speed parameters to generate a consistent, accurate, and meaningful motion. The resultant unit motions are integrated into a meaningful sequence to synthesize various desired human movements. We demonstrate our work using a set of basic unit yoga motions to author meticulous and complete yoga movements.

      • KCI우수등재

        모션-스피어 궤적데이터 기반의 동적제스처 인식 시스템

        류재영(Jaeyeong Ryu),아디띠야 비(Adithya B),아쇽 쿠말 파틸(Ashok Kumar Patil),채영호(Youngho Chai) 한국정보과학회 2021 정보과학회논문지 Vol.48 No.7

        최근 인간과 컴퓨터의 상호작용(HCI)에 속하는 동적제스처 인식 기술은 많은 관심을 받고 있다. 이는 해당 시스템을 활용하기 위한 인터페이스 구성이 간단하고, 빠른 의사소통이 가능하기 때문이다. 본 논문에서는 동적제스처 인식 시스템에 새로운 입력데이터를 사용하고, 인식정확도를 개선시키기 위한 연구를 진행했다. 기존 동적제스처 인식시스템에서는 주로 관절의 위치와 회전데이터를 사용한다. 반면 제안하는 시스템에서 모션-스피어의 궤적데이터를 사용한다. 모션-스피어는 움직임을 시각화하기 위한 기술로서 직관적으로 움직임을 표현한다. 모션-스피어는 동작을 궤적과 꺾임 각도가 표현하고, 모션-스피어의 궤적은 동적제스처 인식시스템의 입력데이터로 사용가능하다. 본 논문에서는 궤적데이터 사용의 유효성을 동적제스처 인식정확도 비교를 통해서 검증한다. 실험에서는 직접 사용자의 움직임을 쿼터니온데이터로 측정한 실험과 공개 모션데이터를 사용한 실험으로 나눈다. 두 시스템에서 모두 인식정확도 테스트를 진행했고, 각 실험에서 모두 높은 인식정확도를 도출했다. Recently, dynamic gesture recognition technology, which belongs to human-computer interaction (HCI), has received much attention. This is because the interface configuration for utilizing the system is simple and it is possible to communicate quickly. In this paper, we used a new input data format for the dynamic gesture recognition system and conducted research to improve the recognition accuracy. In the existing dynamic gesture recognition system, the position data and the rotation data of the joint are mainly used. In the proposed system, motion-sphere trajectory data are used. Motion-sphere expresses motion intuitively as a technique for visualizing movement. In the motion-sphere, the expression is composed of the trajectory and twist angle. In this paper, the trajectory of the motion-sphere is used as input data of the dynamic gesture recognition system. The validity of the trajectory data used is verified through the dynamic gesture recognition accuracy comparison. In the experiment, we experimented on two cases. The first cases were conducted by using measured quaternion data. The other experiments used open motion data. Both experiments conducted cognitive accuracy tests, and each experiment yielded high cognitive accuracy.

      • KCI등재

        파이프 라인 리트로피팅 어플리케이션을 위한 3D 포인트 클라우드, CAD 모델, 실시간 카메라 뷰 및 부분 포인트 클라우드의 4 대 1 정렬

        안도윤(Do Yoon Ahn),아제이 쿠말(G Ajay Kumar),아쇽 쿠말 파틸(Ashok Kumar Patil),채영호(Young Ho Chai) 대한기계학회 2018 大韓機械學會論文集A Vol.42 No.8

        레이저 스캐닝된 3D 포인트 클라우드 데이터 및 CAD(Computer Aided Design)모델을 이용하면 중화학플랜트에서의 복잡한 공학적 모델의 건설, 모니터링 및 리트로피팅에 큰 이점이 있다. 또한, BIM(Building Information Modeling) 프로세스에 필요한 시간, 노력 및 비용을 절감할 수 있다. 레이저 스캐닝으로 생성 된 포인트 클라우드 데이터와 실제 모델을 매칭시켜 보면 사용자가 실제 모델에 해당하는 부분의 특정 요소를 찾아 분석하고 수정하는 것이 용이하다. 본 논문은 포인트 클라우드의 획득, 생성된 포인트 클라우드 데이터와 물리적 모델의 정렬, 적응형 3D 모델링을 포함한 리트로피팅을 위한 프레임워크를 제시한다. 워크플로우는 효율적인 4 in 1 접근 방식으로, 첫번째로 LiDAR(Light Detection And Ranging)의 실시간 부분 포인트 클라우드를 사용하여 실제 물리적 모델과 사전에 수집, 재구성한 포인트 클라우드 데이터와 정렬하고, 그 후 정렬된 포인트 클라우드 데이터를 사용하여 3D모델의 자동생성 및 생성된 CAD의 가상 리트로피팅을 수행한다. 마지막으로 VR(Virtual Reality)기기를 이용하여 생성된 3D모델을 실제 카메라 뷰에 중첩하여 보여줌으로써 효율적으로 시각화를 완성한다. 이 방법은 LiDAR에서 얻어지는 부분 포인트 클라우드 데이터와 사전에 수집, 재구성한 포인트 클라우드 데이터 및 플랜트 CAD 모델을 사용하여 실제환경에서 시연되었다. The use of laser scanned 3D point cloud data and computer aided design (CAD) models aids in the construction, monitoring, and retrofitting of complex engineering objects in petrochemical plants. Moreover, it reduces the time, effort, and cost required for the building information modeling (BIM) process. Connecting the laser scanner generated point cloud data with the physical world enables users to find, analyze, and modify the specific element of the model corresponding to the physical model. This paper presents a framework for point cloud acquisition, alignment of generated point cloud data with the physical world model, adaptive 3D modeling, and retrofitting. The workflow includes an efficient 4-in-1 approach, beginning with the alignment of pre-processed point cloud data with the realworld physical model using a real-time partial point cloud obtained from light detection and ranging (LiDAR), followed by the automation of 3D model generation from the point cloud data and virtual retrofitting of CAD models. Finally, an overlap of the generated 3D models on the real environment from the camera view is efficiently visualized using a wearable virtual reality (VR) device. The proposed method is demonstrated in a real-world setting, using the partial point cloud from LiDAR, pre-processed real-world point cloud data, and CAD models of an industrial plant.

      연관 검색어 추천

      이 검색어로 많이 본 자료

      활용도 높은 자료

      해외이동버튼