http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.
변환된 중국어를 복사하여 사용하시면 됩니다.
강지우 ( Ji-woo Kang ),강현미 ( Hyun-mi Kang ) 한국환경생태학회 2022 한국환경생태학회 학술대회지 Vol.2022 No.1
전라남도 장흥군에 위치한 천관산도립공원은 1998년 10월 13일 도립공원으로 지정되었으며, 면적은 7.94㎢로 전라남도 도립공원 중 두륜산도립공원(36.64㎢), 조계산도립공원(27.38㎢) 불갑산도립공원(6.89㎢)과 비교했을 때 작은 면적을 가지고 있다. 천관산도립공원은 다른 전라남도 도립 공원에 비해 관리ㆍ보호에 필요한 자료가 부족한 실정이다. 이에 본 연구는 천관산도립공원의 식생특성을 분석하고 이를 통해 지속 가능한 식생관리와 도립공원 연구의 기초자료를 구축하고자 하였다. 천관산도립공원의 식생특성을 파악하기 위해 선인봉~봉황봉~구정봉~천관산으로 이어지는 능선부를 중심으로 총 61개소의 조사구를 설치해 식생조사를 실시하였다. 조사구는 산림공간정보서비스의 임상도자료를 토대로 속성별 비율에 따라 설치하였다. TWINSPAN에 의한 군락분류 결과, 곰솔군락, 신갈나무-소나무군락, 신갈나무-졸참나무군락, 소나무군락, 졸참나무-상수리나무-소나무군락, 리기다소나무-소나무군락, 편백-소나무군락, 삼나무군락 8개로 유형화되었다. 곰솔군락(군락 Ⅰ)은 교목층에 곰솔이 우점하는 가운데 소나무, 쇠물푸레나무 등이 출현하고 아교목층은 출현하지 않으며, 관목층에 조릿대, 청미래덩굴, 산철쭉 등이 출현하고 있다. 군락 Ⅰ은 건조하고 척박한 환경으로 곰솔, 쇠물푸레나무, 산철쭉 등이 출현하고 있으며, 아교목층이 출현하지 않아 경쟁종이 없으므로 곰솔군락의 지속적인 유지가 예상된다. 신갈나무-소나무군락(군락 Ⅱ)은 교목층에 신갈나무, 소나무가 우점하고 있으며 아교목층에 쇠물푸레나무, 신갈나무가 출현하고 있다. 신갈나무와 소나무가 경쟁하고 있는 군락으로 하층의 소나무 우점도가 높지 않은 것으로 보아 향후 신갈나무림으로 식생천이가 예상된다. 신갈나무-졸참나무군락(군락 Ⅲ)은 교목층에 신갈나무, 졸참나무, 굴참나무가 우점하고 있는 낙엽성참나무류군락으로 당분간 현 상태가 유지될 것으로 판단되고, 아교목층에 특산식물인 히어리가 출현하고 있어 지속적인 보호와 관리가 필요할 것으로 판단된다. 소나무군락(군락 Ⅳ)은 교목층에 소나무가 우점하고 있지만 아교목층과 관목층에서는 출현하지 않고 교목층과 아교목층에 졸참나무가 관찰되는 것으로 보아 점차 소나무가 도태되고 졸참나무군락으로 천이가 진행될 것으로 예상된다. 졸참나무-상수리나무-소나무군락(군락 Ⅴ)은 군락 Ⅳ와 같이 아교목층과 관목층에 소나무가 출현하지 않고 있어 소나무가 도태되고 있는 것으로 보이며 상수리나무는 하층이 관찰되지 않고 있어 향후 졸참나무군락으로 천이가 진행될 것이 예상된다. 리기다소나무-소나무군락(군락 Ⅵ)은 조림수종인 리기다소나무와의 경쟁에서 소나무가 도태되어 당분간 리기다 소나무가 우점하는 인공림으로 유지될 것으로 예상되며, 관목층에 사스레피나무와 동백나무 등 다양한 수종들이 경쟁하고 있는데 이는 숲가꾸기 이후 시간이 경과함에 따라 여러 수종의 유입으로 종다양도가 높아진 것으로 예상된다. 편백-소나무군락(군락 Ⅶ)은 소나무군락에 편백을 인위적으로 식재한 군락으로 현 상태가 유지될 것으로 보이나 하층에서 난온대 상록활엽수림의 대표 수종인 후박나무가 출현하고 있어 숲가꾸기 등의 관리를 통해 기후적인 특성에 맞는 자연림으로의 천이 유도가 필요해 보인다. 삼나무군락(군락 Ⅷ)은 삼나무 인공림으로 교목층은 삼나무가 우점하며, 아교목층은 단풍나무, 관목층은 차나무가 우점하고 있다. 교목층의 삼나무와 함께 관목층의 차나무 또한 인위적으로 식재된 종으로 숲에 대한 관리가 이루어지지 않는 이상 현재의 상태를 유지할 것으로 보인다. 종합해 보면 천관산도립공원은 소나무군락에서 낙엽성 참나무류군락으로 천이가 진행되고 있는 식생구조를 보이며, 숲가꾸기 사업과 하층 식재 등의 인위적인 간섭을 받아 다른 지역에 비해 종다양성이 높게 나타나고 있다. 또한, 도립공원 지역임에도 인공림의 출현이 높아 지속적인 관리가 필요할 것으로 보여진다.
드론 영상의 이동 객체 인식을 위한 특징점 매칭 기반 딥러닝 훈련 자료 구축 방법론
강지우(Ji-Woo Kang),성홍기(Hong Ki Sung),최강혁(Kang Hyeok Choi) 한국산학기술학회 2023 한국산학기술학회논문지 Vol.24 No.10
딥러닝을 활용한 이동 객체 인식은 빠르고 정확한 인식 성능을 기대할 수 있다. 하지만, 딥러닝 기반 객체 인식의 정확도는 훈련 자료의 품질에 큰 영향을 받기에 양질의 훈련 자료를 확보하는 것이 중요하다. 기존의 훈련 자료를 마련하는 방법들은 상당한 비용, 합성 영상의 한계 그리고 초기 훈련 자료 요구와 같은 단점을 지니고 있다. 본 연구에서는 위와 같은 한계점을 극복하고자, 특징점 매칭을 이용해 드론 영상으로부터 차량 객체를 인식하여 초기 훈련 자료를 효율적으로 취득하는 방법론을 제안하고자 한다. 이를 위하여 연속된 드론 영상에서 참조 객체와 다른 영상 간 특징점 매칭을 수행한 후, KAZE, ORB, SIFT 그리고 SURF 알고리즘의 성능을 비교하였다. 다양한 도로 위 상황을 반영하기 위하여 드론과 차량 객체의 움직임으로 인한 객체의 형상 변화에 따라 시나리오를 분류한 후, 시나리오별 참조 객체를 강도에 따라 세분화하여 특징점 매칭 결과를 비교하였다. 실험을 통하여 KAZE 및 SURF 알고리즘이 평균 매칭점 개수 측면에서 우수한 성능을 보였으며, 90% 이상의 평균 정확도를 보였다. 또한, 두 알고리즘은 차량과 드론 간 상대적인 위치 변화와 차량 객체의 강도 변화에 가장 안정적인 성능을 보였다. 이에 본 연구에서는 특징점 매칭 기반 이동 객체의 훈련자료 취득 방법론을 제시하였으며, 드론 영상으로부터 효율적인 훈련 자료 취득이 가능함을 확인하였다. Researchers are studying the use of deep learning to detect moving objects in drone images. The accuracy of the model used depends on the quality of the training data, which highlights the importance of collecting high-quality training data. Methods for collecting training data have disadvantages such as high costs, reliance on synthetic data, and a need for initial training data. Therefore, this study presents a method for obtaining initial training data by matching moving objects in drone images using feature matching. To achieve this objective, we compared the performance of the KAZE, ORB, SIFT, and SURF algorithms by conducting feature matching between reference objects and other images in a series of drone images. In experiments, the KAZE and SURF algorithms performed well in terms of the average number of matching points and showed an average accuracy of over 90%. Additionally, both algorithms consistently outperformed other algorithms in tracking the relative position changes between moving objects and the drone, as well as changes in the intensity of moving objects. The results confirmed that training data can be efficiently obtained from drone images.