http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.
변환된 중국어를 복사하여 사용하시면 됩니다.
권영목,최윤조,정혁,송주일,손홍규,Kwon, Youngmok,Choi, Yoonjo,Jung, Hyuk,Song, Juil,Sohn, Hong-Gyoo 대한원격탐사학회 2022 大韓遠隔探査學會誌 Vol.38 No.5
현재 국내에서 발생하는 다수의 재난은 예측 불가능하고 복잡하다는 특징을 가지고 있으며 이로 인한 재산 및 인명피해가 증가하고 있다. 이러한 재난의 초기대응과정은 규모 및 피해확산에 직접적으로 연관 되어있어 최적의 의사결정이 필수적이며 적시에 적용가능한 센서를 통해 현장에 대한 정보 취득이 이루어져야 한다. 하지만 현재 운영되고 있는 재난안전상황실은 필요한 정보보다는 관련 부처와 링크된 정보만 수집되고 있어 적절한 의사결정을 하기에는 어려움이 존재한다. 본 연구에서는 이를 개선하기 위해 다양한 재난영상정보를 신속하게 수집하여 의사결정 지원에 요구되는 정보를 추출하고 이 결과를 활용할 수 있는 일련의 프레임워크를 제안하고자 하였다. 이를 위해 웹 기반 표출시스템과 스마트폰 애플리케이션을 제안하였으며 실시간에 가깝게 데이터를 수집하고 다양한 분석결과를 공유할 수 있도록 설계하였다. 제안한 표출시스템의 의사결정 지원에 대한 활용성을 검정하기 위하여 Closed-circuit Television (CCTV), 스마트폰, 무인기를 통해 취득한 실제 재난현장의 영상을 기반으로 검토하였다. 뿐만 아니라 재난 시 재난과 관련된 데이터의 유통 및 취득에 대한 제도적인 검토와 함께 해결된다면 효과적인 재난관리가 가능할 것으로 판단된다. Currently, disasters occurring in Korea are characterized by unpredictability and complexity. Due to these features, property damage and human casualties are increasing. Since the initial response process of these disasters is directly related to the scale and the spread of damage, optimal decision-making is essential, and information of the site must be obtained through timely applicable sensors. However, it is difficult to make appropriate decisions because indiscriminate information is collected rather than necessary information in the currently operated Disaster and Safety Situation Office. In order to improve the current situation, this study proposed a framework that quickly collects various disaster image information, extracts information required to support decision-making, and utilizes it. To this end, a web-based display system and a smartphone application were proposed. Data were collected close to real time, and various analysis results were shared. Moreover, the capability of supporting decision-making was reviewed based on images of actual disaster sites acquired through CCTV, smartphones, and UAVs. In addition to the reviewed capability, it is expected that effective disaster management can be contributed if institutional mitigation of the acquisition and sharing of disaster-related data can be achieved together.
SpaceNet 건물 데이터셋과 Context-based ResU-Net을 이용한 건물 자동 추출
유수홍 ( Suhong Yoo ),김철환 ( Cheol Hwan Kim ),권영목 ( Youngmok Kwon ),최원준 ( Wonjun Choi ),손홍규 ( Hong-gyoo Sohn ) 대한원격탐사학회 2022 大韓遠隔探査學會誌 Vol.38 No.5
건물 정보는 다양한 도시 공간 분석에 활용되는 필수 정보 중 하나이기에 지속적인 모니터링이 필요하지만 현실적으로 어려움이 존재하고 있다. 이를 위해 광범위한 지역에 대해서도 지속적인 관찰이 가능한 위성 영상으로부터 건물을 추출하기 위한 연구가 진행되고 있으며, 최근에는 딥러닝 기반의 시맨틱 세그멘테이션 기법들이 활용되고 있다. 본 연구에서는 SpaceNet의 건물 v2 무료 오픈 데이터를 이용하여 30 cm 급Worldview-3 RGB 영상으로부터 건물을 자동으로 추출하기 위해, context-based ResU-Net의 일부 구조를 변경하여 학습을 진행하였다. 분류 정확도 평가 결과, f1-score가 2회차 SpaceNet 대회 수상작의 분류 정확도보다 높은 것으로 나타났다. 앞으로 지속적으로 Worldview-3 위성 영상을 확보할 수 있다면 본 연구의 성과를 활용하여 전세계 건물 자동 추출 모델을 제작하는 것도 가능할 것으로 판단된다. Building information is essential for various urban spatial analyses. For this reason, continuous building monitoring is required, but it is a subject with many practical difficulties. To this end, research is being conducted to extract buildings from satellite images that can be continuously observed over a wide area. Recently, deep learning-based semantic segmentation techniques have been used. In this study, a part of the structure of the context-based ResU-Net was modified, and training was conducted to automatically extract a building from a 30 cm Worldview-3 RGB image using SpaceNet’s building v2 free open data. As a result of the classification accuracy evaluation, the f1-score, which was higher than the classification accuracy of the 2nd SpaceNet competition winners. Therefore, if Worldview-3 satellite imagery can be continuously provided, it will be possible to use the building extraction results of this study to generate an automatic model of building around the world.