RISS 학술연구정보서비스

검색
다국어 입력

http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.

변환된 중국어를 복사하여 사용하시면 됩니다.

예시)
  • 中文 을 입력하시려면 zhongwen을 입력하시고 space를누르시면됩니다.
  • 北京 을 입력하시려면 beijing을 입력하시고 space를 누르시면 됩니다.
닫기
    인기검색어 순위 펼치기

    RISS 인기검색어

      검색결과 좁혀 보기

      선택해제
      • 좁혀본 항목 보기순서

        • 원문유무
        • 원문제공처
        • 등재정보
        • 학술지명
        • 주제분류
        • 발행연도
          펼치기
        • 작성언어
        • 저자
          펼치기

      오늘 본 자료

      • 오늘 본 자료가 없습니다.
      더보기
      • 무료
      • 기관 내 무료
      • 유료
      • KCI등재

        무인기 소프트웨어에서 처리된 표정요소를 이용한 도화품질 예측기술 개발 및 비교분석

        임평채,손종환,김태정 대한원격탐사학회 2019 大韓遠隔探査學會誌 Vol.35 No.6

        현재 현업에서 사용되고 있는 상용 무인기 영상처리 소프트웨어는 카메라 캘리브레이션 정보나 영상전체에 대한 블록 번들조정 정확도만 제공할 뿐 스테레오 페어의 실제 도화 가능여부에 대한 정확도는 거의제공하지 않는다. 본 논문에서는 무인기 영상처리 소프트웨어에서 산출된 표정요소를 사용하여 도화품질을 산출하고 실제 도화기에 적용하여 도화품질의 신뢰성에 대해서 분석하였다. 도화품질은 Y시차 정확도, 상대모델 정확도, 절대모델 정확도의 3가지 정확도로 정의하였다. Y시차 정확도는 스테레오 페어간 입체시 여부를 판단할 수 있는 정확도이다. 상대모델 정확도는 모델 좌표계 상에서 스테레오 페어간 상대적인 번들조정정확도이다. 절대모델 정확도는 절대 좌표계에서 번들조정 정확도이다. 실험데이터는 도심지를 대상으로 회전익에서 취득된 GSD 5 cm급의 영상 723장을 사용하여 도화품질을 분석하였다. 연구진이 개발한 기술을 사용해 예측한 상대모델 정확도와 실제 도화기에서 관측한 정확도의 최대오차는 0.11 m로 정밀한 결과를 보여주었다. 절대모델 정확도도 마찬가지로, 도화기에서 관측한 정확도의 최대오차는 0.16 m로 정밀한 결과를 보여주었다. Commercial Unmanned Aerial Vehicle (UAV) image processing software products currently used in the industry provides camera calibration information and block bundle adjustment accuracy. However, they provide mapping accuracy achievable out of input UAV images. In this paper, the quality of mapping is calculated by using orientation parameters from UAV image processing software. We apply the orientation parameters to the digital photogrammetric workstation (DPW) for verifying the reliability of the mapping quality calculated. The quality of mapping accuracy was defined as three types of accuracy: Y-parallax, relative model and absolute model accuracy. The Y-parallax is an accuracy capable of determining stereo viewing between stereo pairs. The Relative model accuracy is the relative bundle adjustment accuracy between stereo pairs on the model coordinates system. The absolute model accuracy is the bundle adjustment accuracy on the absolute coordinate system. For the experimental data, we used 723 images of GSD 5 cm obtained from the rotary wing UAV over an urban area and analyzed the accuracy of mapping quality. The quality of the relative model accuracy predicted by the proposed technique and the maximum error observed from the DPW showed precise results with less than 0.11 m. Similarly, the maximum error of the absolute model accuracy predicted by the proposed technique was less than 0.16 m.

      • KCI등재

        에지 타겟 분석을 통한 무인기 영상의 선명도 지표 추출

        임평채,서정훈,김태정 대한원격탐사학회 2018 大韓遠隔探査學會誌 Vol.34 No.6

        In order to generate high-resolution products using UAV images, it is necessary to analyze the sharpness of the themselves measured through image analysis. When images that have unclear sharpness of UAV are used in the production, they can have a great influence on operations such as acquisition and mapping of accurate three-dimensional information using UAV. GRD (Ground Resolved Distance) has been used as an indicator of image clarity. GRD is defined as the minimum distance between two identifiable objects in an image and is used as a concept against the GSD (Ground Sampling Distance), which is a spatial sample interval. In this study, GRD is extracted by analyzing the edge target without visual analysis. In particular, GRD to GSD ratio (GRD/GSD), or GRD expressed in pixels, is used as an index for evaluation the relative image sharpness. In this paper, GRD is calculated by analyzing edge targets at various altitudes in various shooting environments using a rotary wing. Using GRD/GSD, it was possible to identify images whose sharpness was significantly lowered, and the appropriateness of the image as an image clarity index was confirmed. 무인기 영상을 활용한 고해상도의 산출물을 생성하기 위해서 영상 분석을 통해 측정되는 영상자체의 선명도 분석이 필요하다. 무인기의 선명도가 명확하지 않는 영상을 현업에서 사용할 경우 무인기를 이용한 정확한 3차원 정보의 획득이나 매핑 등의 작업에 큰 영향을 미칠 수 있다. 영상 선명도를 설명할 수 있는 지표로 식별해상도(Ground Resolved Distance, GRD)가 사용되어 왔다. GRD는 영상에서 식별 가능한 두 물체간의 최소거리로 정의되며 공간적 샘플간격인 GSD(Ground Sampling Distance)와 대비되는 개념으로 사용된다. 본 연구에서는 GRD를 육안판독에 의하지 않고 영상에 촬영된 에지 타겟을 분석하여 추출하고자 한다. 특히 GRD 대 GSD의 비율(GRD/GSD), 또는 픽셀단위로 표현된 GRD를 영상의 상대적 선명성을 평가할 수 있는 지표로 사용하고자 한다. 본 논문에서는 회전익을 사용하여 여러 촬영환경에서 고도별로 촬영된 에지타겟의 분석을 통해서 GRD를 산출하였다. GRD/GSD를 사용하여 선명도가 현저히 떨어지는 영상을 판별할 수 있었고 이를 통해서 영상의 선명도 지표로서의 적정성을 확인할 수 있었다.

      • KCI등재

        무인항공기 정밀 센서모델링을 통한 대축척 수치도화 가능성 평가

        임평채 ( Pyung-chae Lim ),김한결 ( Han-gyeol Kim ),박지민 ( Jimin Park ),이수암 ( Sooahm Rhee ) 대한원격탐사학회 2020 大韓遠隔探査學會誌 Vol.36 No.6

        무인항공기(UAV: Unmanned Aerial Vehicle)는 저고도 비행으로 인해 고해상도 영상을 취득할 수 있으며, 수시촬영이 가능하여 지도제작에 있어 수시갱신이 가능하다. 이러한 이점으로 인해 무인항공기 영상을 이용한 대축척 수치지도 제작 가능성에 대한 연구가 활발히 진행되고 있다. 정밀한 수치지도는 디지털트윈이나 스마트시티의 기반 데이터로 활용될 수 있다. 정밀한 수치지도를 제작하기 위해서는 지상기준점을 이용한 정밀 센서모델링이 반드시 선행되어야 한다. 본 연구에서는, 자체 개발한 정밀 센서모델링 알고리즘을 통해 무인항공기 영상의 기하모델을 수립하였다. 그리고 수치지도를 제작하여 대축척 수치도화 가능성을 평가하였다. 연구 데이터는 인천 간석동과 서울 여의도를 대상으로 영상 및 지상기준점을 취득하였다. 정밀 센서모델링 정확도 분석 결과, 두 지역에 대해서 체크 점 평균오차 3 픽셀 이내, RMSE 4 픽셀 이내의 높은 정확도를 확인하였다. 수치도화 정확도 분석 결과, 국토지리정보원에서 고시한 1:1,000 세부도화 수평오차(0.4 m) 및 표고오차(0.4 m)를 만족하는 범위의 정확도를 확인하였다. 따라서 본 연구에서 자체개발한 정밀 센서모델링 기술은 무인항공기 영상의 1:1,000 대축척 수치도화 제작 가능성을 시사한다. UAV (Unmanned Aerial Vehicle) can acquire high-resolution images due to low-altitude flight, and it can be photographed at any time. Therefore, the UAV images can be updated at any time in map production. Due to these advantages, studies on the possibility of producing large-scale digital maps using UAV images are actively being conducted. Precise digital maps can be used as base data for digital twins or smart cites. For producing a precise digital map, precise sensor modeling using GCPs (Ground Control Points) must be preceded. In this study, geometric models of UAV images were established through a precision sensor modeling algorithm developed in house. Then, a digital map by stereo plotting was produced to evaluate the possibility of large-scale digital map. For this study, images and GCPs were acquired for Ganseok-dong, Incheon and Yeouido, Seoul. As a result of precision sensor modeling accuracy analysis, high accuracy was confirmed within 3 pixels of the average error of the checkpoints and 4 pixels of the RMSE was confirmed for the two study regions. As a result of the mapping accuracy analysis, it satisfied the 1:1,000 mapping accuracy announced by the NGII (National Geographic information Institute). Therefore, the precision sensor modeling technology suggested the possibility of producing a 1:1,000 large-scale digital map by UAV images.

      • KCI등재

        다중 센서 융합을 위한 무인항공기 물리 오프셋 검보정 방법

        김철욱,임평채,지준화,김태정,이수암,Kim, Cheolwook,Lim, Pyeong-chae,Chi, Junhwa,Kim, Taejung,Rhee, Sooahm 대한원격탐사학회 2022 大韓遠隔探査學會誌 Vol.38 No.6

        In an unmanned aerial vehicles (UAVs) system, a physical offset can be existed between the global positioning system/inertial measurement unit (GPS/IMU) sensor and the observation sensor such as a hyperspectral sensor, and a lidar sensor. As a result of the physical offset, a misalignment between each image can be occurred along with a flight direction. In particular, in a case of multi-sensor system, an observation sensor has to be replaced regularly to equip another observation sensor, and then, a high cost should be paid to acquire a calibration parameter. In this study, we establish a precise sensor model equation to apply for a multiple sensor in common and propose an independent physical offset estimation method. The proposed method consists of 3 steps. Firstly, we define an appropriate rotation matrix for our system, and an initial sensor model equation for direct-georeferencing. Next, an observation equation for the physical offset estimation is established by extracting a corresponding point between a ground control point and the observed data from a sensor. Finally, the physical offset is estimated based on the observed data, and the precise sensor model equation is established by applying the estimated parameters to the initial sensor model equation. 4 region's datasets(Jeon-ju, Incheon, Alaska, Norway) with a different latitude, longitude were compared to analyze the effects of the calibration parameter. We confirmed that a misalignment between images were adjusted after applying for the physical offset in the sensor model equation. An absolute position accuracy was analyzed in the Incheon dataset, compared to a ground control point. For the hyperspectral image, root mean square error (RMSE) for X, Y direction was calculated for 0.12 m, and for the point cloud, RMSE was calculated for 0.03 m. Furthermore, a relative position accuracy for a specific point between the adjusted point cloud and the hyperspectral images were also analyzed for 0.07 m, so we confirmed that a precise data mapping is available for an observation without a ground control point through the proposed estimation method, and we also confirmed a possibility of multi-sensor fusion. From this study, we expect that a flexible multi-sensor platform system can be operated through the independent parameter estimation method with an economic cost saving.

      • KCI등재

        포인트 클라우드 데이터 기반 군집형 건물 솔리드 모델 자동 생성 기법과 모델 편집 기능 평가

        김한결 ( Han-gyeol Kim ),임평채 ( Pyung-chae Lim ),황윤혁 ( Yunhyuk Hwang ),김동하 ( Dong Ha Kim ),김태정 ( Taejung Kim ),이수암 ( Sooahm Rhee ) 대한원격탐사학회 2021 大韓遠隔探査學會誌 Vol.37 No.6

        본 논문에서는 포인트 클라우드 데이터를 기반으로 자동으로 군집형 솔리드 건물 모델을 생성하는 기술을 다양한 데이터에 적용, 실험을 수행하여 적용 가능성과 효용성을 탐색한다. 또한 자동 건물 모델링 기술의 한계로 인해 부족한 모델의 품질을 향상시키기 위하여 건물의 형상 편집 및 텍스처 조정 기술을 개발, 실험을 통해 결과를 확인하였다. 자동 건물 모델 생성 기술의 적용 가능성 탐색을 위하여 무인항공기 영상 기반으로 생성된 포인트 클라우드와 LiDAR(Light Detection and Ranging) 자료를 사용해 실험하였으며, 자동으로 생성된 건물 모델에 건물 형상 편집 및 텍스처 조정 기술을 적용하여 모델의 품질의 향상 실험을 수행하였다. 이를 통해 포인트 클라우드 데이터 기반의 자동 군집형 솔리드 건물 모델링 기술의 적용 가능성과 모델의 품질 향상 기술의 효용성을 확인하였다. 개발된 기술은 기존의 건물 모델링 기술과 비교하여 처리시간의 비용이 크게 감소하며, 잦은 모델 갱신이 필요한 지역에 대한 관리 측면에서도 강점이 있을 것으로 기대된다. In this paper, we explore the applicability and utility of a technology that generating clustered solid building models based on point cloud automatically by applying it to various data. In order to improve the quality of the model of insufficient quality due to the limitations of the automatic building modeling technology, we develop the building shape modification and texture correction technology and confirmed the results through experiments. In order to explore the applicability of automatic building model generation technology, we experimented using point cloud and LiDAR (Light Detection and Ranging) data generated based on UAV, and applied building shape modification and texture correction technology to the automatically generated building model. Then, experiments were performed to improve the quality of the model. Through this, the applicability of the point cloud data-based automatic clustered solid building model generation technology and the effectiveness of the model quality improvement technology were confirmed. Compared to the existing building modeling technology, our technology greatly reduces costs such as manpower and time and is expected to have strengths in the management of modeling results.

      • KCI등재

        위성영상의 방사적 특성을 고려한 구름 탐지 방법 개발

        서원우,강홍기,윤완상,임평채,이수암,김태정 대한원격탐사학회 2023 大韓遠隔探査學會誌 Vol.39 No.6

        Clouds cause many difficult problems in observing land surface phenomena using opticalsatellites, such as national land observation, disaster response, and change detection. In addition, thepresence of clouds affects not only the image processing stage but also the final data quality, so it isnecessary to identify and remove them. Therefore, in this study, we developed a new cloud detectiontechnique that automatically performs a series of processes to search and extract the pixels closest to thespectral pattern of clouds in satellite images, select the optimal threshold, and produce a cloud maskbased on the threshold. The cloud detection technique largely consists of three steps. In the first step, theprocess of converting the Digital Number (DN) unit image into top-of-atmosphere reflectance units wasperformed. In the second step, preprocessing such as Hue-Value-Saturation (HSV) transformation,triangle thresholding, and maximum likelihood classification was applied using the top of the atmospherereflectance image, and the threshold for generating the initial cloud mask was determined for each image. In the third post-processing step, the noise included in the initial cloud mask created was removed andthe cloud boundaries and interior were improved. As experimental data for cloud detection, CAS500-1L2G images acquired in the Korean Peninsula from April to November, which show the diversity ofspatial and seasonal distribution of clouds, were used. To verify the performance of the proposed method,the results generated by a simple thresholding method were compared. As a result of the experiment,compared to the existing method, the proposed method was able to detect clouds more accurately byconsidering the radiometric characteristics of each image through the preprocessing process. In addition,the results showed that the influence of bright objects (panel roofs, concrete roads, sand, etc.) other than cloud objects was minimized. The proposed method showed more than 30% improved results (F1-score)compared to the existing method but showed limitations in certain images containing snow.

      연관 검색어 추천

      이 검색어로 많이 본 자료

      활용도 높은 자료

      해외이동버튼