RISS 학술연구정보서비스

검색
다국어 입력

http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.

변환된 중국어를 복사하여 사용하시면 됩니다.

예시)
  • 中文 을 입력하시려면 zhongwen을 입력하시고 space를누르시면됩니다.
  • 北京 을 입력하시려면 beijing을 입력하시고 space를 누르시면 됩니다.
닫기
    인기검색어 순위 펼치기

    RISS 인기검색어

      검색결과 좁혀 보기

      선택해제
      • 좁혀본 항목 보기순서

        • 원문유무
        • 원문제공처
          펼치기
        • 등재정보
          펼치기
        • 학술지명
          펼치기
        • 주제분류
          펼치기
        • 발행연도
          펼치기
        • 작성언어
        • 저자
          펼치기

      오늘 본 자료

      • 오늘 본 자료가 없습니다.
      더보기
      • 무료
      • 기관 내 무료
      • 유료
      • KCI등재

        차선과 도로영역 정보를 이용한 전방 차량 영역의 추출 기법

        유재형(Jaehyung Yu),한영준(Youngjoon Han),한헌수(Hernsoo Hahn) 한국지능시스템학회 2008 한국지능시스템학회논문지 Vol.18 No.6

        본 논문은 복잡한 도로 영상에서 차량 검출의 효율성을 높이기 위해 체인코드를 이용한 차선의 검출로부터 도로 영역을 찾아 차량이 존재하는 차량 영역의 추출 기법을 제안한다. 먼저, 복잡한 도로 영상에서 정확한 차선을 검출하기 위해 체인코드를 이용하여 에지 화소들간의 연결성을 고려한다. 주행 차량의 방향과 일치하는 차선을 검출한 후, 중앙의 차선으로부터 차도의 폭과 차선의 소실점을 찾아 인접하는 차도를 찾는다. 마지막으로 주행 차선과 인접 차선을 포함하는 도로 영역 내에 차량의 에지 정보를 이용하여 차량이 존재하는 차량 영역을 추출한다. 따라서, 제안하는 차량 영역의 추출 기법은 복잡한 배경을 갖는 도로 영상에서 차량의 검출율을 높이고 추출된 차량 영역에 한정할 수 있기 때문에 차량을 검출하는데 매우 효율적이다. 본 논문은 제안하는 차량 영역의 추출 기법의 우수성을 복잡한 도로 영상에서 차량 검출율의 실험을 통해 검증하였다. This paper proposes a new algorithm of extracting forward vehicle areas using the acquired lanes and road area information on road images with complex background to improve the efficiency of the vehicle detection. In the first stage, lanes are detected by taking into account the connectivity among the edges which are determined from a method of chain code. Once the lanes proceeding to the same direction with the running vehicle are detected, neighborhood roadways are found from the width and vanishing point of the acquired roadway of the running vehicle. And finally, vehicle areas, where forward vehicles are located on the road area including the center and neighborhood roadways, are extracted. Therefore, the proposed scheme of extracting forward vehicle area improves the rate of vehicle detection on the road images with complex background, and is highly efficient because of detecting vehicles within the confines of the acquired vehicle area. The superiority of the proposed algorithm is verified from experiments of the vehicle detection on road images with complex background.

      • KCI등재

        확장 에지 분석을 통한 실시간 전방 차량 검출 기법

        지영석(Young-Suk Ji),한영준(Young-Joon Han),한헌수(Hern-Soo Hahn) 한국컴퓨터정보학회 2010 韓國컴퓨터情報學會論文誌 Vol.15 No.10

        본 논문은 에지를 이용한 차량 검출 시 검출률 향상을 위해 부정확한 에지 정보를 보완하는 확장 에지 분석 기법을 제안한다. 차량은 영상에서 차량이 지면과 닺는 경계면과 좌우 경계선을 이용하여 검출한다. 제안하는 확장 에지 분석기법은 차량과 지면의 경계선을 표현하는 수평 에지가 조명이나 잡음 등으로 인해 부정확하게 얻어지는 문제를 해결하기 위해 수평에지를 양방향으로 확장하여 차량 양쪽의 경계선인 두 개의 수직에지 성분과 교차하는 점을 찾는 방법이다. 즉, 미리 설정된 관심영역 내에서 인접한 수평에지 정보를 이용하여 에지를 융합하거나 분리하는 방법을 통해 수평에지를 추출하고 추출된 수평에지 영역에서 차량 그림자 영역을 검출하여 차량 바닥선을 결정한다. 차량의 폭은 수평에지와 교차하는 수직에지들 중에서 좌우 대칭을 형성할 수 있는 에지들과 차간 거리를 고려하여 결정한다. 확장 에지 분석기반 차량 검출 기법은 복잡한 배경을 갖는 도로 영상에서 기존의 에지 정보를 이용한 차량 검출 방식보다 효율적이다. 본 논문에서 제안하는 차량 검출 기법의 우수성은 복잡한 도로 영상에서 차량 검출 실험을 통해 검증하였다. To complement inaccurate edge information and detect correctly the boundary of a vehicle in an image, an extended edge analysis technique is presented in this paper. The vehicle is detected using the bottom boundary generated by a vehicle and the road surface and the left and right side boundaries of the vehicle. The proposed extended edge analysis method extracts the horizontal edge by merging or dividing the nearby edges inside the region of interest set beforehand because various noises deteriorates the horizontal edge which can be a bottom boundary. The horizontal edge is considered as the bottom boundary and the vertical edges as the side boundaries of a vehicle if the extracted horizontal edge intersects with two vertical edges which satisfy the vehicle width condition at the height of the horizontal edge. This proposed algorithm is more efficient than the other existing methods when the road surface is complex. It is proved by the experiments executed on the roads having various backgrounds.

      • KCI등재

        Haarlike 기반의 고속 차량 검출과 SURF를 이용한 차량 추적 알고리즘

        유재형(Jae-Hyoung Yu),한영준(Young-Joon Han),한헌수(Hern-Soo Hahn) 한국컴퓨터정보학회 2012 韓國컴퓨터情報學會論文誌 Vol.17 No.1

        본 논문에서는 단일 카메라를 이용하여 차량의 위치를 검출하고 연속적인 프레임에서의 차량의 움직임을 추적하는 알고리즘을 제안한다. 차량의 특징을 검출하기 위해 Haar-like 에지 검출기를 사용하고, 카메라의 캘리브레이션 정보를 이용하여 차량의 위치를 추정한다. 신뢰도를 높이기 위해 k 개의 연속적인 프레임에서의 누적된 차량 정보를 추출한다. 최종 검출된 차량을 템플릿으로 지정하고 SURF (Speeded Up Robust Features) 알고리즘을 통해 연속적으로 입력되는 프레임에서 동일한 차량을 추출한다. 이를 통해 동일 차량으로 추출된 차량 정보를 새로운 템플릿으로 업데이트 한다. 비교 검출을 위한 수행 시간을 줄이기 위해 이전 프레임에서 검출된 차량의 범위를 확장한 영역만을 관심 영역으로 지정한다. 이 과정은 공통된 대응점을 찾지 못할 때까지 검출과 추적 과정을 반복하여 진행한다. 실 도로 상에서 얻어진 영상에 대해 적용함으로써 제안된 알고리즘의 효율성을 보였다. This paper proposes vehicle detection and tracking algorithm using a CCD camera. The proposed algorithm uses Haar-like wavelet edge detector to detect features of vehicle and estimates vehicle's location using calibration information of an image. After that, extract accumulated vehicle information in continuous k images to improve reliability. Finally, obtained vehicle region becomes a template image to find same object in the next continuous image using SURF(Speeded Up Robust Features). The template image is updated in the every frame. In order to reduce SURF processing time, ROI(Region of Interesting) region is limited on expended area of detected vehicle location in the previous frame image. This algorithm repeats detection and tracking progress until no corresponding points are found. The experimental result shows efficiency of proposed algorithm using images obtained on the road.

      • KCI등재

        소형 임베디드 시스템 기반의 실시간 차량 검출을 이용하는 스마트 교통 관리 시스템

        이소현,강희수,송유진,이미정,배창석 한국차세대컴퓨팅학회 2021 한국차세대컴퓨팅학회 논문지 Vol.17 No.1

        본 논문에서는 소형 임베디드 시스템을 기반으로 교차로 상의 차량을 실시간으로 검출함으로써 차량의 정체 상황에 따라 적응적으로 교통 신호등을 제어하는 스마트 교통 관리 시스템을 제안한다. 제안하는 시스템의 개발을 위해 크 게 3단계로 연구를 진행하였다. 먼저 차량 검출을 위한 딥러닝 기반의 학습 모델을 구축하였다. 학습 모델 구축 단 계에서는 교차로에서 차량 검출 성능을 제고하기 위해 15,083 개의 실험 영상을 수집하고 이들 영상에 포함된 104,719 대의 차량에 대해 학습 데이터를 구축하였다. 두 번째 단계에서는 소형 임베디드 시스템에서 YOLO 기반 의 실시간 차량 검출 모델을 구축하였다. 차량 검출 성능을 유지하면서 소형 임베디드 시스템에서의 실시간 처리를 지원하기 위해 USB 형태의 독립형 GPU 모듈을 사용하고 YOLO V3 Tiny 딥러닝 기술을 적용하였다. 마지막으 로는 교차로에서 신호 대기 중인 차량의 대수를 바탕으로 신호등을 효과적으로 제어함으로써 스마트 교통 관리 시스 템을 개발하였다. 본 논문에서 제안하는 시스템을 구현하여 실험한 결과 교차로에서 차량이 일부 겹쳐진 경우에도 약 95% 이상의 차량 검출 성능을 보였으며 동일한 환경에서 효과적으로 차량의 흐름이 제어되는 것을 확인할 수 있었다. This paper proposes a smart traffic management system based on a small size embedded system. The proposed system can detect vehicles on a cross road in realtime, and adaptively control traffic light according to the traffic situation. The implementation of the proposed system consists of 3 stages. First, we construct a training mode based on deep learning for detecting vehicles. In training model construction stage, we collect 15,083 images for vehicle detection experiment. and construct a training dataset for 104,719 vehicle images in the collected images. Next, we implement a realtime vehicle detection model based on YOLO on a small embedded system. We employed YOLO V3 Tiny deep learning technology using a USB type independent GPU module. This GPU module supports realtime processing on a small size embedded system maintaining superior vehicle detection performance. In the last stage, we developed a noble smart traffic management system by adaptively control traffic light based on the number of vehicles waiting for the traffic light on a cross road. Experimental results show the proposed system has about 95% vehicle detection performance even some parts of vehicles on a cross road are occluded. Further we can find the proposed system controls traffic flow effectively.

      • KCI등재

        영상처리기법을 활용한 차량 검출 및 선박복원성 계산

        김득봉,허준혁,김가람,서창범,이우준 해양환경안전학회 2021 해양환경안전학회지 Vol.27 No.7

        우리나라는 여러 건의 여객선 사고를 겪으면서, 여객선 안전관리를 위해 다양한 제도를 운영하고 있다. 2021년 기준 우리나라 연안을 운항하는 여객선 162척 중, 차량갑판이 개방된 형태의 차도선이 105척(65 %)을 차지하고 있다. 차도선은 2~4개의 섬을 경유하는 운항 패턴을 가지고 있다. 출항지(모항)에서 안전점검은 선원과 운항관리실의 운항감독관, 해사안전감독관에 의해 실시된다. 경유지에서 의 안전점검은 자체점검이 실시되는 경우가 있다. 여느 제도와 마찬가지로 제도적, 현실적 한계 등이 있다. 이를 위해 영상처리기법을 활 용하여 차량을 검출하고 이를 선박 복원성 계산과 연동하는 방안을 제안하고자 본 연구를 수행하였다. 차량 검출을 위해 차영상을 이용 하는 방법과 기계학습을 이용하는 방법을 사용하였다. 검출된 데이터를 선박 복원성 계산에 활용하였다. 기계학습을 통해 차량을 검출하 는 경우, 차영상에 의한 차량 검출 방법보다 차량 식별에 안정적임을 알 수 있었다. 다만, 카메라가 일몰과 같은 상황에서 역광을 받는 경 우와 야간과 같은 상황에서 부두와 선박 내부의 강한 조명에 의해 차량이 식별되지 않는 한계가 있었다. 안정적인 영상처리를 위해 충분 한 영상 데이터 확보와 프로그램 고도화가 필요해 보인다. After the occurrence of several passenger ship accidents in Korea, various systems are being developed for passenger ship safety management. A total of 162 passenger ships operate along the coast of Korea, of which 105 (65 %) are car-ferries with open vehicle decks. The car-ferry has a navigation pattern that passes through 2 to 4 islands. Safety inspections at the departure point(home port) are carried out by the crew, the operation supervisor of the operation management office, and the maritime safety supervisor. In some cases, self-inspections are carried out for safety inspections at layovers. As with any system, there are institutional and practical limitations. To this end, this study was conducted to suggest a method of detecting a vehicle using image processing and linking it to the calculations for ship stability. For vehicle detection, a method using a difference image and one using machine learning were used. However, a limitation was observed in these methods that the vehicle could not be identified due to strong background lighting from the pier and the ship in the cases where the camera was backlit such as during sunset or at night. It appears necessary to secure sufficient image data and upgrade the program for stable image processing.

      • KCI등재

        스테레오 비전기반의 컬럼 검출과 조감도 맵핑을 이용한 전방 차량 검출 알고리즘

        이충희,임영철,권순,김종환,Lee, Chung-Hee,Lim, Young-Chul,Kwon, Soon,Kim, Jong-Hwan 한국정보처리학회 2011 정보처리학회논문지B Vol.18 No.5

        본 논문에서는 스테레오 비전기반의 컬럼 검출과 조감도 맵핑을 이용한 전방 차량 검출 알고리즘을 제안한다. 제안된 알고리즘은 실제 복잡한 도로 환경에서 전방 차량을 강건하게 검출할 수 있다. 전체적인 알고리즘은 도로 특징기반의 컬럼 검출, 조감도 기반의 장애물체 세그멘테이션, 차량 특징기반의 영역 재결합, 차량 검증으로 크게 네 단계로 구성되어 있다. 먼저 v-시차맵상에서 최대 빈도값을 이용하여 도로 특징 정보만을 추출한 후, 이를 기반으로 컬럼 검출을 수행한다. 도로 특징 정보는 기존의 중앙값과 달리 도로 환경에 영향을 받지 않아 도로상의 장애물체 유무를 판단하는 기준으로 적절하다. 그러나 다수의 장애물체가 동일한 장애물체로 검출되는 것을 해결하기 위하여 조감도 기반의 세그멘테이션을 수행한다. 조감도는 시차맵과 카메라 정보를 기반으로 계산된 장애물체들의 위치를 평면상에 표시함으로써 장애물체를 쉽게 분리할 수 있다. 그러나 분리된 장애물체 중에는 동일한 장애물체인 경우도 있으므로, 도로상의 차량 특징을 기반으로 장애물체가 동일한지를 판단하여 재결합하는 과정을 수행한다. 마지막으로 시차맵과 그레이 영상기반의 차량 검증 단계를 수행하여 차량만 검출한다. 제안된 알고리즘을 실제 복잡한 도로 영상에 적용함으로써 차량 검증 성능을 검증한다. In this paper, we propose a forward vehicle detection algorithm using column detection and bird's-eye view mapping based on stereo vision. The algorithm can detect forward vehicles robustly in real complex traffic situations. The algorithm consists of the three steps, namely road feature-based column detection, bird's-eye view mapping-based obstacle segmentation, obstacle area remerging and vehicle verification. First, we extract a road feature using maximum frequent values in v-disparity map. And we perform a column detection using the road feature as a new criterion. The road feature is more appropriate criterion than the median value because it is not affected by a road traffic situation, for example the changing of obstacle size or the number of obstacles. But there are still multiple obstacles in the obstacle areas. Thus, we perform a bird's-eye view mapping-based obstacle segmentation to divide obstacle accurately. We can segment obstacle easily because a bird's-eye view mapping can represent the position of obstacle on planar plane using depth map and camera information. Additionally, we perform obstacle area remerging processing because a segmented obstacle area may be same obstacle. Finally, we verify the obstacles whether those are vehicles or not using a depth map and gray image. We conduct experiments to prove the vehicle detection performance by applying our algorithm to real complex traffic situations.

      • KCI등재후보

        차량의 부분 특징을 이용한 터널 내에서의 차량 검출 및 추적 알고리즘

        김현태,김규영,도진규,박장식,Kim, Hyun-Tae,Kim, Gyu-Young,Do, Jin-Kyu,Park, Jang Sik 한국전자통신학회 2013 한국전자통신학회 논문지 Vol.8 No.8

        본 논문에서는 터널 내에서 차량의 운행 상태를 모니터링하기 위하여 차량 검출 및 추적 알고리즘을 제안한다. 제안하는 알고리즘은 세 단계로 이루어진다. 첫 단계는 배경추정으로서 비교적 간단한 Running Gaussian Average (RGA)를 사용한다. 두 번째 단계는 차량검출 단계이며, Adaboost 알고리즘을 적용한다. 상대적으로 먼거리의 차량에 대한 오검출을 줄이기 위하여 차량의 높이별 부분 특징을 이용하여 차량을 검출한다. 물체의 부분 특징들이 임계값 이상이면 차량으로 분류한다. 마지막 단계는 차량추적 단계이며, Kalman 필터를 적용하여 이동하는 물체를 추적한다. 컴퓨터 시뮬레이션을 통하여 제안하는 알고리즘이 터널 내에서 차량 검출 및 추적에 유용한 것을 확인하였다. In this paper, an efficient vehicle detection and tracking algorithm for detection incident in tunnel is proposed. The proposed algorithm consists of three steps. The first one is a step for background estimates, low computational complexity and memory consumption Running Gaussian Average (RGA) is used. The second step is vehicle detection step, Adaboost algorithm is applied to this step. In order to reduce false detection from a relatively remote location of the vehicles, local features according to height of vehicles are used to detect vehicles. If the local features of an object are more than the threshold value, the object is classified as a vehicle. The last step is a vehicle tracking step, the Kalman filter is applied to track moving objects. Through computer simulations, the proposed algorithm was found that useful to detect and track vehicles in the tunnel.

      • 차량검출을 위한 영상 보정에 관한 연구

        은영석(Young-souck Eun) 한국자동차공학회 2010 한국자동차공학회 학술대회 및 전시회 Vol.2010 No.11

        본 논문은 영상기반의 차량 검출에서 새로운 영상보정 방법을 다루고 있다. 본 논문의 목적은 실시간 차량 검출 중, 추적 차량이 터널 등의 어두운 공간에 진입 할 경우 영상보정을 통하여 차량 검출을 용이하게 하는 새로운 방법을 제시하는데 있다. 본 논문은 이미 검출된 차선 영역을 이용하여 어두운 공간의 영상에 Dynamic range를 적용하여 영상을 개선하는 방법을 제안한다. 제안한 방법이 효과적임을 증명하기 위하여 일반적으로 영상보정에 사용하는 히스토그램 평탄화/Retinex와 본 논문에서 제안하는 방법을 비교하여 차량검출을 위한 ,에지 검출 결과를 비교한다. 본 논문의 고찰 결과 제안하는 방법은 히스토그램 평탄화에 비하여 두배의 차량에지 검출성능을 보여주며, Retinex에 비하여 15.3배의 수행속도 개선을 보여준다. 이를 통해 제안하는 영상보정 방법이 효과적임을 밝힌다.

      • KCI등재

        블랙박스 영상 기반 차량 및 배경 대체 영상을 이용한 실시간 MR 콘텐츠의 설계

        김성호 중소기업융합학회 2021 융합정보논문지 Vol.11 No.6

        본 논문에서는 차량용 블랙박스로 촬영된 고속도로 주간 주행 영상을 기반으로 차량을 종류별로 검출하고 추적한다. 그리고 검출된 차량의 종류별 대체 영상을 새로운 배경 영상의 같은 위치에 올려놓음으로써 새롭게 창조될 수 있는 실시간 MR 콘텐츠 제작 방안을 설계한다. 차량을 종류별로 검출하고 추적하기 위해서는 딥러닝 의 객체 검출 분야에서 가장 잘 알려지고 유명한 YOLO 알고리즘을 사용한다. 또한, 검출된 차량의 종류별 대체 영상을 위해서는 RGB 색상을 기반으로 하는 Mask 기법을 사용한다. 실시간 MR 콘텐츠를 위해 사용될 차량 대체 영상의 크기는 원본 영상에서 검출된 차량의 영역 크기와 같은 크기로 대체된다. 본 논문에서는 실시간 MR 콘텐츠 설계가 가능함을 실험 및 시뮬레이션으로 확인하였으며 VR 콘텐츠 분야에서 유용하게 활용할 수 있을 것으로 판단한다. In this paper, we detect and track vehicles by type based on highway daytime driving videos taken with black boxes for vehicles. In addition, we design a real-time MR contents production method that can be newly created by placing substitute videos of each type of detected vehicles in the same location as the new background video. To detect and track vehicles by type, we use the YOLO algorithm. And we also use the mask technique based on RGB color for substitute videos of each type of vehicles detected. The size of the vehicle substitute videos to be used for MR content are substituted by the same size as the area size of the detected vehicles. In this paper, we confirm that real-time MR contents design is possible as a result of experiments and simulations and believe that It will be usefully utilized in the field of VR contents.

      • KCI등재

        사각지역경보시스템을 위한 실시간 측후방 차량검출 알고리즘

        강현우(Hyunwoo Kang),백장운(Jang Woon Baek),한병길(Byung-Gil Han),정윤수(Yoonsu Chung) 한국정보과학회 2017 정보과학회 컴퓨팅의 실제 논문지 Vol.23 No.7

        본 논문에서는 주행 중 사각지역내의 차량을 빠르고 정확하게 실시간으로 검출하는 측후방 차량검출 알고리즘을 제안한다. 제안 알고리즘은 실시간 처리를 위해 MCT(Modified Census Transformation)특징벡터를 기반으로 에이다부스트 학습을 통해 생성되는 캐스케이드 분류기를 사용한다. MCT 분류기는 검출윈도우가 작을수록 처리속도가 빠르고, 검출윈도우가 클수록 정확도가 증가한다. 제안 알고리즘은 이러한 특징을 이용하여 검출윈도우가 작은 분류기로 차량후보를 빠르게 생성한 후 보다 큰 사이즈의 검출윈도우를 가지는 분류기로 생성된 차량후보에 대해 정확하게 차량인지 검증한다. 또한, 차량분류기와 바퀴분류기를 동시에 사용하여 사각지역내로 진입하는 차량과 사각지역내의 인접차량을 효과적으로 검출한다. This paper proposes a real-time side-rear vehicle detection algorithm that detects vehicles quickly and accurately in blind spot areas when driving. The proposed algorithm uses a cascade classifier created by AdaBoost Learning using the MCT (modified census transformation) feature vector. Using this classifier, the smaller the detection window, the faster the processing speed of the MCT classifier, and the larger the detection window, the greater the accuracy of the MCT classifier. By considering these characteristics, the proposed algorithm uses two classifiers with different detection window sizes . The first classifier quickly generates candidates with a small detection window. The second classifier accurately verifies the generated candidates with a large detection window. Furthermore, the vehicle classifier and the wheel classifier are simultaneously used to effectively detect a vehicle entering the blind spot area, along with an adjacent vehicle in the blind spot area.

      연관 검색어 추천

      이 검색어로 많이 본 자료

      활용도 높은 자료

      해외이동버튼