RISS 학술연구정보서비스

검색
다국어 입력

http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.

변환된 중국어를 복사하여 사용하시면 됩니다.

예시)
  • 中文 을 입력하시려면 zhongwen을 입력하시고 space를누르시면됩니다.
  • 北京 을 입력하시려면 beijing을 입력하시고 space를 누르시면 됩니다.
닫기
    인기검색어 순위 펼치기

    RISS 인기검색어

      검색결과 좁혀 보기

      선택해제
      • 좁혀본 항목 보기순서

        • 원문유무
        • 원문제공처
        • 등재정보
        • 학술지명
          펼치기
        • 주제분류
        • 발행연도
          펼치기
        • 작성언어
        • 저자
          펼치기

      오늘 본 자료

      • 오늘 본 자료가 없습니다.
      더보기
      • 무료
      • 기관 내 무료
      • 유료
      • 스프링 백본과 와이어를 이용한 3자유도 내시경

        최동걸,이병주 한국로봇학회 2008 로봇학회 논문지 Vol.3 No.3

        This work proposes structure of spring backbone micro endoscope. For effective surgery in narrow and limited space, many manipulators are developing that different to existed structure. This device can move like elephant nose or snake unlike the existing robots. For this motion, a mechanism that uses spring backbone and wires has been developed. The new type endoscope that has Z axis motion for spring structure, therefore it has 3 degree of freedom, two rotations and one linear motion. And new kinematics for backbone structure is proposed using simple geographic analysis. The Jacobian and stiffness modeling are also derived. Exact actuator sizing is determined using stiffness model. Finally, the proposed kinematics are verified by simulation and experiments.

      • KCI등재

        초음파 센서기반 추적 알고리즘을 이용한 자동 수술 조명 로봇 시스템

        최동걸,이병주,김영수,Choi, Dong-Gul,Yi, Byung-Ju,Kim, Young-Soo 대한의용생체공학회 2007 의공학회지 Vol.28 No.3

        Most surgery illumination systems have been developed as passive systems. However, sometimes it is inconvenient to relocate the position of the illumination system whenever the surgeon changes his pose. To cope with such a problem, this study develops an auto-illumination system that is autonomously tracking the surgeon's movement. A 5-DOF serial type manipulator system that can control (X, Y, Z, Yaw, Pitch) position and secure enough workspace is developed. Using 3 ultrasonic sensors, the surgeon's position and orientation could be located. The measured data aresent to the main control system so that the robot can be auto-tracking the target. Finally, performance of the developed auto-illuminating system was verified through a preliminary experiment in the operating room environment.

      • KCI등재

        다중크기와 다중객체의 실시간 얼굴 검출과 머리 자세 추정을 위한 심층 신경망

        안병태,최동걸,권인소 한국로봇학회 2017 로봇학회 논문지 Vol.12 No.3

        One of the most frequently performed tasks in human-robot interaction (HRI), intelligent vehicles, and security systems is face related applications such as face recognition, facial expression recognition, driver state monitoring, and gaze estimation. In these applications, accurate head pose estimation is an important issue. However, conventional methods have been lacking in accuracy, robustness or processing speed in practical use. In this paper, we propose a novel method for estimating head pose with a monocular camera. The proposed algorithm is based on a deep neural network for multi-task learning using a small grayscale image. This network jointly detects multi-view faces and estimates head pose in hard environmental conditions such as illumination change and large pose change. The proposed framework quantitatively and qualitatively outperforms the state-of-the-art method with an average head pose mean error of less than 4.5° in real-time.

      • KCI등재

        로봇 주행을 위한 아웃도어 환경에서의 노면 인식 시스템

        이재민,서민석,이상우,최동걸 한국차세대컴퓨팅학회 2021 한국차세대컴퓨팅학회 논문지 Vol.17 No.4

        오늘날 정확한 노면 인식 시스템 구축을 위해서는 딥러닝 기반의 의미론적 객체분할 기술의 적용이 필수적이다. 하 지만 실세계에서 충분히 존재할 수 있는 야지 장면에서 노면인식을 위한 의미론적 객체분할 데이터 셋은 아직까지도 개발되지 않았고, 그렇기 때문에 의미론적 객체분할 기술이 야지 노면 인식 시스템에서 적용된 연구 사례도 매우 적 다. 우리는 이러한 문제를 해결하기 위하여 야지 환경에서의 노면 인식 데이터 셋을 구축하고, 지금까지 적용되지 못했던 의미론적 객체분할 기술들을 적용 및 최적하고 분석한다. 실험 결과 우리는 우리의 야지 노면 인식 데이터 셋에서 980FPS의 연산속도로 89.34 mIoU를 달성하였다. Embedding technology into robot platforms is a very challenging task. In this work, we study a realistic road recognition system based on deep learning for robot embeddings. In particular, deep learning-based road recognition research is accessible with semantic segmentation techniques. However, Semantic segmentation datasets for road recognition also do not exist, and there are very few related studies. For this reason, developing algorithms for real-world platform configurations becomes very difficult. To solve problem, we build our own road recognition dataset in an outdoor environment and describe and analyze the realistic issues encountered while learning Road Recognition algorithms. Furthermore, we apply acceleration methodologies that are essential for robot embedding. As a result, we achieve road recognition accuracy of 89.34 mIoU and computational speed of 980 FPS.

      • KCI등재

        CCTV 장면에서의 물피도주 차량 탐지 자동화 시스템

        유용현,김민우,김유현,안병태,최동걸 한국차세대컴퓨팅학회 2024 한국차세대컴퓨팅학회 논문지 Vol.20 No.1

        사람들의 차량 보유 대수가 증가함에 따라 물피도주 사건도 증가하고 있지만, 수사 과정에서 장시간의 CCTV 영상을 수동으로 검수하므로 용의자를 식별하는 데 많은 시간이 필요하고 비효율적이다. 따라서, 불필요한 인력 소모를 줄이기 위해서는 물피도주 피의자 식별 자동화 시스템의 구축이 필수적이다. 본 논문에서는 CCTV 영상에 인공지능 기술을 활용해 CCTV 영상에서 '물피도주' 사건의 시점을 자동으로 탐지하고 가해 차량을 무엇인지 추적하는 시스템을 제안한다. 이 시스템은 CCTV 영상을 수신하면 피해 차량 선택, 사고 시점 추정, 가해 차량 추정의 과정을 거치며 가장 확률이 높은 물피도주 가해 차량을 탐지한다. 기존 차 사고 차량 사고 검출 방식의 취약점을 보완하고, 사고와 무관한 주변 객체로 인한 오류를 줄이기 위해 객체 분할과 객체 탐지 모델, 그리고 객체 추적과 깊이 추정 모델을 활용하여 주변 객체들을 별도로 분류하는 과정이 도입되었다. 또한 CCTV 영상에 촬영된 국내 차량의 탐지 성능을 향상하기 위해 별도로 구성한 데이터 세트를 통해 객체 탐지 성능을 향상했고, 실제 CCTV에서 촬영된 물피도주 사례들에 이 시스템을 적용했을 때 사고 발생 시점을 정확하게 검출하였고, HD 해상도의 영상에서 27fps 이상의 처리 속도를 보인다 As the number of vehicles owned by individuals increases, so does the occurrence of hit-and-run incidents. However, the investigation process is time-consuming and inefficient due to the need for manual review of long-duration CCTV footage to identify suspects. Therefore, it is essential to establish an automated system for identifying hit-and-run suspects to reduce unnecessary manpower consumption. This paper proposes a system that utilizes artificial intelligence technology on CCTV footage to automatically detect the moment of a 'hit-and-run' incident and track the offending vehicle. Upon receiving CCTV footage, the system undergoes processes of selecting the victim vehicle, estimating the time of the accident, and estimating the offending vehicle, thereby detecting the most probable hit-and-run offending vehicle. To address the vulnerabilities of existing vehicle accident detection methods and to reduce errors caused by irrelevant surrounding objects, the process of object segmentation and detection models, as well as object tracking and depth estimation models, were introduced to separately classify surrounding objects. Additionally, to enhance the detection performance of domestic vehicles captured in CCTV footage, a separate dataset was compiled to improve object detection performance. When this system was applied to actual hit-and-run cases recorded by CCTV, it accurately detected the time of the accident and demonstrated a processing speed of over 27fps in HD resolution video.

      • KCI등재
      • KCI등재
      • 형상 정합 기법 기반의 물체의 파지 및 이동 궤적 모사를 위한 로봇 시스템의 개발

        고성영(Seong-Young Ko),주한별(Hanbyul Joo),최동걸(Dong Gul Choi),김형우(Hyeongwoo Kim),권인소(In So Kweon) 대한기계학회 2008 대한기계학회 춘추학술대회 Vol.2008 No.5

        This paper explains the development of robotic system to imitate the grasping motion and trajectory of an object based on shape matching method. The system was developed so that it observes the position and the trace of the chosen object, produces the trajectory for 5DoF robotic arm, and moves to mimic the trajectory reversely. In order to extract the information of the object in real time, the shape matching algorithm is applied to stereo images. The center position of the object is obtained at each image and these are utilized to calculate the position in real time in terms of the camera coordination system. These points were converted in terms of the robot coordination system, and the trajectory for robot's motion was generated by interpolating these points. The grasping motion of the robotic arm is planned using the start position and the end position of the trajectory. It was shown that the developed robotics system based on shape matching method operates robustly.

      • KCI등재

        문화유산 데이터 분류를 위한 계층적 정보 학습 기법

        김유현,박효빈,김민우,유용현,이지원,최동걸 한국차세대컴퓨팅학회 2023 한국차세대컴퓨팅학회 논문지 Vol.19 No.6

        Recent techniques in image classification show strong performance on large, well-refined datasets, but are weak on long-tailed distributions. In addition, there is limited research on hierarchical datasets; however, hierarchical datasets organized in a tree-like structure can further exploit higher-level class information. In this paper, we collected a cultural heritage dataset to utilize hierarchical features, and found two causes of classification failure in the dataset. 1) misclassification due to class imbalance, and 2) superclass misclassification. To solve these problems, we propose a learning strategy utilizing two loss functions. We use a consistency loss function to take advantage of both sampling methods, uniform sampling and class-specific uniform sampling, and a loss function based on subclass prediction for the characteristics of the parent class. We achieve a performance improvement of 5.4% over baseline on a cultural heritage dataset using our proposed learning technique. 최근 이미지 분류 작업의 기술들은 잘 정제되어 있는 대규모 데이터 세트에서 강력한 성능을 보여주지만, 긴꼬리 분포에서는 약한 모습을 보인다. 또한, 계층적 데이터 세트에 대한 연구는 제한적이다. 그러나 트리 형태의 구조로 조직된 계층적 데이터 세트에서는 상위 클래스 정보를 추가적으로 활용할 수 있다. 본 논문에서는 계층적 특징 활용을 위해 문화유산 데이터 세트를 수집하였으며, 해당 데이터 세트에서 분류 실패의 두 가지 원인을 발견하였다. 1) 클래스 불균형으로 인한 오 분류, 2) 상위 클래스 오 분류. 우리는 이러한 문제를 해결하기 위해 두 가지의 손실 함수를 활용한 학습 전략을 제안한다. 유니폼 샘플링과 클래스별 유니폼 샘플링, 두 가지 샘플링 방법의 이점을 모두 가져가기 위한 consistency 손실 함수와 상위 클래스의 특성을 위해 하위 클래스 예측에 기반한 손실 함수를 사용하여 문화유산 데이터 세트에서 베이스라인 대비 5.4%의 성능 향상을 달성한다.

      • KCI등재

        모달리티 훼손에 강인한 멀티모달 기반 의미론적 세분화 모델을 위한 모달리티 안정화 학습 전략

        주진기,노현철,김유현,김대한,이재웅,최동걸 한국차세대컴퓨팅학회 2023 한국차세대컴퓨팅학회 논문지 Vol.19 No.3

        In autonomous vehicles, multimodal-based semantic segmentation is a basic function for recognizing driving area and avoiding obstacles even in limited environments such as low light condition and blurry light. To achieve this, the proposed existing multimodal-based semantic segmentation models recognize the scene using RGB images from visible cameras and thermal images from thermal cameras. However, the existing models assume that the images captured from the two different modalities are not corrupted in any case. In this paper, we found that even the state-of-the-art multi-modal based semantic segmentation models fail to maintain single modality performance in strong modality corruption, such as modality occlusion. Furthermore, we propose single modality stabilization learning in preparation for missing modality to solve this problem. Our experimental results show that the proposed method achieves a performance improvement of up to 8.9 mIoU compared to the baseline model even under extreme modality-damaging conditions. 자율 주행 차량에서 멀티모달 기반 의미론적 세분화 작업은 저조도 및 빛 번짐과 같은 제한적인 환경에서도 주행로를 인식하고 장애물을 회피하기 위한 기본 기능이다. 이를 위해 제안된 기존의 멀티모달 기반 의미론적 세분화 모델들은 장면 인식을 위해 가시 카메라의 RGB 영상과 열화상 카메라의 Thermal 영상을 사용하여 장면을 인식한다. 그러나 기존의 모델들은 서로 다른 두 모달리티에서 입력되는 영상이 어떠한 경우에도 훼손되지 않는다는 것을 가정한다. 본 논문에서 우리는 최첨단 멀티모달 기반 의미론적 세분화 모델 조차 모달리티 가려짐과 같은 강력한 모달리티 훼손 조건에서 단일 모달리티 성능을 유지하지 못하고 극도의 성능 저하에 직면하는 것을 발견한다. 더 나아가, 우리는 해당 문제를 해결하기 위해 모달리티 누락을 대비한 단일 모달리티 안정화 학습을 제안한다. 실험 결과 제안된 방법은 극도의 모달리티 훼손 조건에서도 기준선 모델에 비해 최대 8.9 mIoU의 성능 향상을 달성한다.

      연관 검색어 추천

      이 검색어로 많이 본 자료

      활용도 높은 자료

      해외이동버튼