http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.
변환된 중국어를 복사하여 사용하시면 됩니다.
톤버스트 응답 신호의 스펙트럼 추정에 의한 배터리의 SoC 측정에 관한 연구
최경수,강대수,Choi, Kyoung-Soo,Kang, Dae-Soo 한국인터넷방송통신학회 2018 한국인터넷방송통신학회 논문지 Vol.18 No.1
The deterioration of the Battery is decided by SoC and SoH. To determine Battery deterioration, SoC measurement method of Battery by Transfer Function was studied. The SoC of the Battery changes most greatly in the 1Hz band where the DC resistance is detected. but it is a narrow band to observe, therefore, the observation band was moved to 1kHz using the tone busrst signal. Welch's method was used to observe the frequency domain characteristics of the signal. As a result of the spectral estimation, it was confirmed that the response signal of the battery is 1dB difference when the SoC is 40%, 60%, and 80%, respectively. Through this, Proposed the new method of Battery SoC measurement. 배터리의 열화는 SoC 및 SoH의 변화에 따라 결정된다. 배터리의 열화를 판정하기 위해 전달 함수에 의한 배터리 SoC를 측정 하는 방법을 연구 하였다. 배터리의 SoC는 DC 저항이 검출되는 1Hz 대역에서 가장 크게 변화 한다. 하지만 관측하기 협소한 대역이기 때문에 톤버스트 신호를 입력신호로 사용하여 배터리의 주파수 응답대역을 대역을 1kHz로 이동 시켰다. 신호의 주파수 영역 특성을 관측을 위해 Welch스펙트럼 추정 방법을 사용하였다. 스펙트럼 추정 결과 배터리의 응답 신호는 SoC가 40%, 60%, 80% 일 때 각각 1dB의 차이를 갖는 것을 확인 하였으며, 이를 통해 새로운 배터리 SoC의 측정 방식을 제안 하였다.
자율주행차량의 객체 검출을 위한 카메라-라이다 센서 시각 동기화 방안 연구
최경수(Kyoung Soo Choi),사의환(Yui Hwan Sa),김성진(Sung Jin Kim),강대수(Dae Soo Kang),이정욱(Jung Uck Lee) 한국산학기술학회 2023 한국산학기술학회논문지 Vol.24 No.10
최근 자율주행차량에 관한 다양한 연구가 진행되고 있으며 특히, 인공지능 학습을 위한 GPU와 주변 하드웨어 성능 향상으로 주변 객체 검출을 통해 자율주행차량을 지원하고 있다. 객체 검출을 위한 대표적인 센서는 카메라, 라이다, 레이더가 있으며, 단일 센서의 인지 능력보다 다종 센서의 융합을 통해 검출 정확도를 높이는 것이 높은 신뢰성을 요구하는 자동차 분야에서 선호하는 방식이다. 따라서, 본 논문에서는 카메라와 라이다 센서의 융합 방식을 채택했다. 인공지능 학습 성능을 높이기 위한 요인 중 이기종 센서 간 캘리브레이션과 정밀한 시각 동기화 방식을 통한 객체 검출 성능 검증을 수행했다. 캘리브레이션 방식은 크게 체커보드 기반, 비 목표물 기반, 딥러닝 기반으로 구성되어 있고, 그 중 Zhang’s method 기반 캘리브레이션을 진행하였으며 회전 오차: 0.80°, 이동 오차: 0.02m, 재투영 오차: 7.63 픽셀의 결과를 도출했다. 다종 센서의 시각 동기화는 트리거 신호의 주기와 근적외선 카메라를 통해 확인하였고, 차량의 속도별 투영 이미지를 이용하여 정성적인 성능을 검증했다. Various studies on autonomous vehicles have been conducted. In particular, autonomous vehicles are supported by detecting the surrounding objects by improving the GPU and surrounding H/W performance for artificial intelligence (AI) learning. Representative sensors for object detection include cameras, lidar, and radar, and it is preferred in the automotive field, requiring high reliability to increase detection accuracy through the fusion of multiple sensors rather than the cognitive ability of a single sensor. Therefore, this paper used the convergence method of camera and lidar sensors. Object detection performance was verified through calibration between heterogeneous sensors and precise time synchronization to improve the AI learning performance. The calibration method is largely checkerboard-based, non-target-based, and deep learning-based, of which checkerboard-based calibration was conducted. The following results were derived: rotation error, 0.80°; translation error, 0.02m; reproduction error, 7.63 pixels. Time synchronization of various sensors was confirmed from the period of the trigger signal and the near-infrared camera, and qualitative performance was verified using projection images by the vehicle speed.