RISS 학술연구정보서비스

검색
다국어 입력

http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.

변환된 중국어를 복사하여 사용하시면 됩니다.

예시)
  • 中文 을 입력하시려면 zhongwen을 입력하시고 space를누르시면됩니다.
  • 北京 을 입력하시려면 beijing을 입력하시고 space를 누르시면 됩니다.
닫기
    인기검색어 순위 펼치기

    RISS 인기검색어

      검색결과 좁혀 보기

      선택해제
      • 좁혀본 항목 보기순서

        • 원문유무
        • 원문제공처
        • 등재정보
        • 학술지명
        • 주제분류
        • 발행연도
        • 작성언어
        • 저자
          펼치기

      오늘 본 자료

      • 오늘 본 자료가 없습니다.
      더보기
      • 무료
      • 기관 내 무료
      • 유료
      • KCI등재

        사진측량과 컴퓨터비전 간의 카메라 렌즈왜곡 변환

        홍송표,최한승,김의명 한국측량학회 2019 한국측량학회지 Vol.37 No.4

        Photogrammetry and computer vision are identical in determining the three-dimensional coordinates of images taken with a camera, but the two fields are not directly compatible with each other due to differences in camera lens distortion modeling methods and camera coordinate systems. In general, data processing of drone images is performed by bundle block adjustments using computer vision-based software, and then the plotting of the image is performed by photogrammetry-based software for mapping. In this case, we are faced with the problem of converting the model of camera lens distortions into the formula used in photogrammetry. Therefore, this study described the differences between the coordinate systems and lens distortion models used in photogrammetry and computer vision, and proposed a methodology for converting them. In order to verify the conversion formula of the camera lens distortion models, first, lens distortions were added to the virtual coordinates without lens distortions by using the computer vision-based lens distortion models. Then, the distortion coefficients were determined using photogrammetry-based lens distortion models, and the lens distortions were removed from the photo coordinates and compared with the virtual coordinates without the original distortions. The results showed that the root mean square distance was good within 0.5 pixels. In addition, epipolar images were generated to determine the accuracy by applying lens distortion coefficients for photogrammetry. The calculated root mean square error of y-parallax was found to be within 0.3 pixels. 사진측량과 컴퓨터비전 분야는 카메라에서 촬영된 영상에서 3차원 좌표를 결정하는 것은 동일하지만 두 분야는 카메라 렌즈왜곡 모델링 방법과 카메라 좌표계의 차이점으로 인하여 서로 간에 직접적인 호환이 어렵다. 일반적으로 드론 영상의 자료처리는 컴퓨터비전 기반의 소프트웨어를 이용하여 번들블록조정을 수행한 후 지도제작을 위해서 사진측량 기반의 소프트웨어로 도화를 수행하게 된다. 이때 카메라 렌즈왜곡의 모델을 사진측량에서 사용하는 수식으로 변환해야 하는 문제에 직면하게 된다. 이에 본 연구에서는 사진측량과 컴퓨터비전에서 사용되는 좌표계와 렌즈왜곡 모델식의 차이점에 대하여 기술하고 이를 변환하는 방법론을 제안하였다. 카메라 렌즈왜곡 모델의 변환식의 검증을 위해서 먼저 렌즈왜곡이 없는 가상의 좌표에 컴퓨터비전 기반의 렌즈왜곡 모델을 이용하여 렌즈왜곡을 부여하였다. 그리고 나서 렌즈왜곡이 부여된 사진좌표를 이용하여 사진측량 기반의 렌즈왜곡 모델을 이용하여 왜곡계수를 결정한 후 사진좌표에서 렌즈왜곡을 제거하여 원래의 왜곡이 없는 가상좌표와 비교하였다. 그 결과 평균제곱근거리가 0.5픽셀 이내로 양호한 것으로 나타났다. 또한 사진측량용 렌즈왜곡 계수를 적용하여 정밀도화 가능여부를 판단하기 위해서 에피폴라 영상을 생성하였다. 생성된 에피폴라 영상에서 y-시차의 평균제곱근오차가 계산한 결과 0.3픽셀 이내로 양호하게 나타났음을 알 수 있었다.

      • KCI등재

        정밀도로지도 레이어의 품질향상을 위한 자동오류 판독 연구

        홍송표,오종민,송용현,신영민,성동기 한국측량학회 2020 한국측량학회지 Vol.38 No.4

        Autonomous driving can be limited by only using sensors if the sensor is blocked by sudden changes in surrounding environments or large features such as heavy vehicles. In order to overcome the limitations, the precise road-map has been used additionally. In korea, the NGII (National Geographic Information Institute) produces and supplies high definition map for autonomous vehicles. Accordingly, in this study, errors occurring in the process of e data editing and dtructured esditing of high definition map are systematically typed providing by the National Geographic Information Institute. In addition, by presenting the error search process and solution for each situation, we conducted a study to quickly correct errors in high definition map, and largely classify the error items for shape integrity, spatial relationship, and reference relationship, and examine them in detail. The method was derived. 급변하는 주변상황이나 대형차량과 같은 큰 지형지물에 센서가 가려질 경우에는 센서만을 이용한 완전 자율주행에는 한계가 따른다. 이에 자율주행을 위해서 센서를 이용한 한계점을 극복할 수 있도록 정밀한 도로지도를 부가적으로 이용하는 방법이 사용되고 있으며, 국내의 경우에는 국토지리정보원에서 자율주행차를 위한 정밀한 도로지도를 제작 및 공급하고 있다. 이에 본 연구에서는 국토지리정보원에서 제공하는 정밀도로지도의 정위치 및 구조화 편집 과정에서 발생하는 오류를 체계적으로 유형화 하였다. 또한 각 상황에 맞는 오류 탐색 과정 및 해결방안을 제시하여 신속하게 정밀도로지도의 오류를 수정할 수 있는 연구를 수행하였으며 크게 도형무결성, 공간관계, 참조관계에 대하여 오류항목을 대분류하고 이에 대한 세부적인 검사방법을 도출하였다.

      • KCI등재

        코사인 법칙과 3차원 좌표 변환을 이용한 단사진의 후방교회법

        홍송표,최한승,김의명 한국측량학회 2019 한국측량학회지 Vol.37 No.3

        사진측량에서 단사진의 후방교회법은 이미 알고 있는 카메라의 내부표정요소, 지상좌표, 사진좌표를 이용하여 촬영당시 카메라의 위치와 자세에 해당하는 외부표정요소를 결정하는 방법이다. 본 연구에서는 코사인 법칙과 선형식기반의 3차원 좌표변환식을 이용하여 카메라의 외부표정요소를 결정할 수 있는 단사진의 공간후방교회법 알고리즘을 제안하였다. 제안한 알고리즘은 먼저 렌즈왜곡이 보정된 정규좌표를 코사인 법칙을 이용하여 지상좌표와 이에 대응되는 정규좌표간의 축척을 계산하였다. 그리고 나서 축척을 고려한 정규좌표와 지상좌표를 이용하는 선형방정식 기반의 3차원 좌표변환식을 적용하여 외부표정요소를 결정하였다. 제안한 알고리즘은 비선형방정식으로 편미분이 필요하나 지상좌표의 조합 중 가장 긴 거리를 구하여 각 지상좌표에 나누는 방법을 이용하여 초기값에 민감하지 않은 장점이 있었다. 또한, 세 점을 이용하여도 외부표정요소를 결정할 수 있기 때문에 기준점의 기하학적 배치에 안정적인 장점이 있었다. In photogrammetry, single photo resection is a method of determining exterior orientation parameters corresponding to a position and an attitude of a camera at the time of taking a photograph using known interior orientation parameters, ground coordinates, and image coordinates. In this study, we proposed a single photo resection algorithm that determines the exterior orientation parameters of the camera using cosine law and linear equation-based three-dimensional coordinate transformation. The proposed algorithm first calculated the scale between the ground coordinates and the corresponding normalized coordinates using the cosine law. Then, the exterior orientation parameters were determined by applying linear equation-based three-dimensional coordinate transformation using normalized coordinates and ground coordinates considering the calculated scale. The proposed algorithm was not sensitive to the initial values by using the method of dividing the longest distance among the combinations of the ground coordinates and dividing each ground coordinates, although the partial derivative was required for the nonlinear equation. In addition, since the exterior orientation parameters can be determined by using three points, there was a stable advantage in the geometrical arrangement of the control points.

      • KCI등재

        머신러닝을 이용한 3차원 도로객체의 분류

        홍송표,김의명 한국측량학회 2018 한국측량학회지 Vol.36 No.6

        급변하는 주변상황이나 대형차량과 같은 큰 지형지물에 센서가 가려질 경우에는 센서만을 이용한 완전 자율주 행에는 한계가 따른다. 이에 자율주행을 위해서 센서를 이용한 한계점을 극복할 수 있도록 정한 도로지도를 부 가적으로 이용하는 방법이 사용되고 있다. 본 연구는 국토지리정보원에서 제공하는 지상 MMS(Mobile Mapping System)로 취득된 3차원 점군자료를 이용하여 도로 객체를 분류하는 연구를 수행하다. 본 연구를 위해서 원본 3 차원 점군자료를 전처리 하고, 지면과 비지면점을 분리하기 위한 필터링 기법을 선정하다. 또한 차선, 가로등, 안 전펜스 등에 해당하는 도로객체를 초기 분할한 후 분할된 객체를 머신러닝의 종류인 서포트 벡터 머신을 이용하 여 학습시킨 후 분류하다. 학습데이터는 분할된 도로객체에서 추출한 고유값을 이용한 기하학적 요소와 높이정 보만을 사용하으며 분류결과 전체정확도는 87%, 카파계수는 0.795로 나타났다. 향후 도로객체의 분 Autonomous driving can be limited by only using sensors if the sensor is blocked by sudden changes in surrounding environments or large features such as heavy vehicles. In order to overcome the limitations, the precise road-map has been used additionally. This study was conducted to segment and classify road objects using 3D point cloud data acquired by terrestrial mobile mapping system provided by National Geographic Information Institute. For this study, the original 3D point cloud data were pre-processed and a filtering technique was selected to separate the ground and non-ground points. In addition, the road objects corresponding to the lanes, the street lights, the safety fences were initially segmented, and then the objects were classified using the support vector machine which is a kind of machine learning. For the training data for supervised classification, only the geometric elements and the height information using the eigenvalues extracted from the road objects were used. The overall accuracy of the classification results was 87% and the kappa coefficient was 0.795. It is expected that classification accuracy will be increased if various classification items are added not only geometric elements for classifying road objects in the future.

      • 점 기반 3차원 변환 기법의 비교

        홍송표(Songpyo Hong),김의명(Euimyoung Kim) 대한공간정보학회 2019 한국지형공간정보학회 학술대회 Vol.2019 No.5

        사진측량에서 절대표정은 가상의 3차원 좌표계를 실제의 3차원 좌표로 변환하는 과정을 의미하며 3개의 회전각, 3개의 이동량, 1개의 축척에 대한 7개의 매개변수를 결정하는 기법이다. 따라서 본 연구에는 절대표정의 비선형식과 선형식으로 구성되어있는 두가지 알고리즘에 대하여 시뮬레이션 데이터를 이용한 실험을 수행하였다. 수행결과 2가지 알고리즘 모두 양호한 성능을 보였으며 선형 절대표정 알고리즘의 경우 비선형 절대표정 알고리즘과 달리 초기값 설정이 필요하지 않고 수치적 반복법을 수행하지 않기 때문에 연산량이 비교적 적은 장점이 있었다.

      • KCI등재

        점 기반 절대표정 알고리즘의 비교

        김의명,홍송표 제어·로봇·시스템학회 2019 제어·로봇·시스템학회 논문지 Vol.25 No.10

        Three-dimensional coordinate transformation is a very important task in not only photogrammetry but also computer vision and robotics. In photogrammetry, this transformation process has been called absolute orientation, and it has been called 3D similarity transformation or 3D rigid body transformation in computer vision and robotics. In this study, experiments were conducted to compare four point-based absolute orientation algorithms using real data. These experiments revealed that all of four absolute orientation algorithms showed good performance. In more detail, the performance of the four absolute orientation algorithms was almost the same irrespective of whether the number of reference points was changed or the scale was fixed or not.

      연관 검색어 추천

      이 검색어로 많이 본 자료

      활용도 높은 자료

      해외이동버튼