http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.
변환된 중국어를 복사하여 사용하시면 됩니다.
3차원 공간데이터 처리를 위한 차로 및 시설물 운영 관리 시스템 아키텍처 설계 연구
김덕호 ( Duck-ho Kim ),김성진 ( Sung-jin Kim ),이정욱 ( Jung-uck Lee ) 한국지리정보학회 2021 한국지리정보학회지 Vol.24 No.4
현재 자율주행 관련 기술은 주행의 정도를 적용하여 단계별로 발전하고 있다. 자율주행 차량이 움직이는 도로에 대한 운영 관리 기술도 자율주행 기술에 발맞춰 발전해야 하는 것은 필수적이다. 그러나 현재 도로 운영 관리의 경우 2차원 정보만을 사용하여 관리되고 있어 차로 및 시설물 정보관리, 유지 보수의 체계화된 운영 관리에 한계를 보이고 있다. 본 연구는 현재 2차원 공간데이터를 기반으로 관리하고 있는 차로 및 시설물 운영 관리 시스템을 정밀도로 지도 데이터와 실시간 빅 데이터 처리가 가능한 융합 형태의 데이터베이스를 설계하여 3차원 공간정보 기반의 운영 관리가 가능한 운영 관리 시스템 아키텍처 구성 방안을 제시하였다. 본 연구를 통해 향후 정밀도로 지도를 기반으로 한 운영 관리 시스템을 구축하여 차로 및 시설물 유지관리에 사용할 경우 시설물을 시각화하여 관리할 수 있으며, 다중 사용자의 데이터 편집 및 분석이 가능하고, 다양한 GIS S/W와 연동이 가능하며, 보안 및 백업·복구 등의 기능이 강화되어 대용량의 실시간 데이터를 효율적으로 처리할 수 있을 것으로 판단된다. Autonomous driving-related technologies are developing step by step by applying the degree of driving. It is essential that operational management technology for roads where autonomous vehicles move should also develop in line with autonomous driving technology. However, in the case of road operation management, it is currently managed using only two-dimensional information, showing limitations in the systematic operation management of lane and facility information and maintenance. This study proposed a plan to construct an operation management system architecture capable of 3D spatial information-based operation management by designing a convergence database that can process real-time big data with high-definition road map data. Through this study, when using a high-definition road map based operation management system for lane and facility maintenance in the future, it is possible to visualize and manage facilities, edit and analyze data of multiple users, link various GIS S/W and efficiently process large scale of real-time data.
자율주행차량의 객체 검출을 위한 카메라-라이다 센서 시각 동기화 방안 연구
최경수(Kyoung Soo Choi),사의환(Yui Hwan Sa),김성진(Sung Jin Kim),강대수(Dae Soo Kang),이정욱(Jung Uck Lee) 한국산학기술학회 2023 한국산학기술학회논문지 Vol.24 No.10
최근 자율주행차량에 관한 다양한 연구가 진행되고 있으며 특히, 인공지능 학습을 위한 GPU와 주변 하드웨어 성능 향상으로 주변 객체 검출을 통해 자율주행차량을 지원하고 있다. 객체 검출을 위한 대표적인 센서는 카메라, 라이다, 레이더가 있으며, 단일 센서의 인지 능력보다 다종 센서의 융합을 통해 검출 정확도를 높이는 것이 높은 신뢰성을 요구하는 자동차 분야에서 선호하는 방식이다. 따라서, 본 논문에서는 카메라와 라이다 센서의 융합 방식을 채택했다. 인공지능 학습 성능을 높이기 위한 요인 중 이기종 센서 간 캘리브레이션과 정밀한 시각 동기화 방식을 통한 객체 검출 성능 검증을 수행했다. 캘리브레이션 방식은 크게 체커보드 기반, 비 목표물 기반, 딥러닝 기반으로 구성되어 있고, 그 중 Zhang’s method 기반 캘리브레이션을 진행하였으며 회전 오차: 0.80°, 이동 오차: 0.02m, 재투영 오차: 7.63 픽셀의 결과를 도출했다. 다종 센서의 시각 동기화는 트리거 신호의 주기와 근적외선 카메라를 통해 확인하였고, 차량의 속도별 투영 이미지를 이용하여 정성적인 성능을 검증했다. Various studies on autonomous vehicles have been conducted. In particular, autonomous vehicles are supported by detecting the surrounding objects by improving the GPU and surrounding H/W performance for artificial intelligence (AI) learning. Representative sensors for object detection include cameras, lidar, and radar, and it is preferred in the automotive field, requiring high reliability to increase detection accuracy through the fusion of multiple sensors rather than the cognitive ability of a single sensor. Therefore, this paper used the convergence method of camera and lidar sensors. Object detection performance was verified through calibration between heterogeneous sensors and precise time synchronization to improve the AI learning performance. The calibration method is largely checkerboard-based, non-target-based, and deep learning-based, of which checkerboard-based calibration was conducted. The following results were derived: rotation error, 0.80°; translation error, 0.02m; reproduction error, 7.63 pixels. Time synchronization of various sensors was confirmed from the period of the trigger signal and the near-infrared camera, and qualitative performance was verified using projection images by the vehicle speed.