RISS 학술연구정보서비스

검색
다국어 입력

http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.

변환된 중국어를 복사하여 사용하시면 됩니다.

예시)
  • 中文 을 입력하시려면 zhongwen을 입력하시고 space를누르시면됩니다.
  • 北京 을 입력하시려면 beijing을 입력하시고 space를 누르시면 됩니다.
닫기
    인기검색어 순위 펼치기

    RISS 인기검색어

      검색결과 좁혀 보기

      선택해제
      • 좁혀본 항목 보기순서

        • 원문유무
        • 원문제공처
        • 등재정보
        • 학술지명
          펼치기
        • 주제분류
        • 발행연도
        • 작성언어
        • 저자
          펼치기

      오늘 본 자료

      • 오늘 본 자료가 없습니다.
      더보기
      • 무료
      • 기관 내 무료
      • 유료
      • KCI등재
      • 분광계와 머신러닝을 이용한 콩 세균병 분류

        김은리 ( Eun-ri Kim ),유찬석 ( Chan-seok Ryu ),강예성 ( Ye-seong Kang ),박기수 ( Ki-su Park ),정종찬 ( Jong-chan Jeong ) 한국농업기계학회 2023 한국농업기계학회 학술발표논문집 Vol.28 No.1

        콩은 우리나라 주요 식량 작물 중 하나이지만, 최근 기후 변화에 따른 고온 다습한 기후로 인해 세균병의 발생 빈도가 증가하여 생산량과 품질에 영향을 받고 있다. 그러므로 세균병의 조기 진단 및 방제를 위한 분광 기술과 머신러닝의 필요성이 증가하고 있다. 따라서 본 연구는 온실 내부에서 분광계로 취득된 데이터와 머신러닝을 이용하여 콩 세균병의 일종인 들불병, 불마름병의 분류 가능성 및 성능 개선 방법을 검토하였다. 본 실험은 경상남도 밀양시에 위치한 국립식량과학원 남부작물부의 유리온실(35˚29’30.5”N 128˚44’ 36.2”E)에서 2022년 5월 16일에 2가지 품종(대찬, 청자 3호)에 들불병, 불마름병을 접종하여 진행하였다. 분광 데이터는 2022년 5월 16일부터 2022년 6월 3일까지 총 15일간 분광계(RS-3500, Spectral Evolution, USA)를 이용하여 취득되었다. 데이터 전처리에 따른 모델 성능 개선을 검토하기 위해 결측치 제거, 잡음 스펙트럼 제거, Savitzky-Golay filtering 기법을 통한 평활화를 각각 또는 조합하여 학습데이터를 생성하였다. 원본과 각 전처리를 진행한 데이터는 Decsion Tree(DT), Random Forest(RF), XGBoost, LightGBM 머신러닝 방법으로 들불병, 불마름병, 정상을 분류하는 모델을 개발하여 F1 Score(F), Kappa(K), Confusion Matrix(CM)로 성능평가를 하였다. 품종에 관계없이 원본데이터로 병증의 유무를 판단하는 것은 불가능하였으나, 전처리를 진행한 데이터에서는 유의미한 분류가 가능하였다. 청자의 경우, 전처리를 진행한 데이터 중에는 평활화만을 진행한 데이터의 RF모델이 1.00(F),1.00(K)으로 완벽하게 분류하였다. 대찬 품종의 경우 결측치 제거와 평활화를 함께 진행한 데이터의 RF모델이 0.98(F), 0.99(K)로 가장 좋은 성능을 나타내었다. 이는 분광계로 취득한 데이터에서 평활화 처리가 성능개선에 효과적임을 나타내었고 특히 CM를 확인했을 때, 전처리 전 병을 정상으로 분류하였던 오분류가 모두 정분류가 되어 실제 방제 적용에 있어서도 더 효율적인 모델로 개선됨을 확인하였다. 이를 통해 콩 세균병 분류 진단 및 방제 적용 가능성을 확인하였으며, 향후 파장 대역 조정 및 밴드 셀렉을 통해 분류 효율을 개선할 예정이다.

      • 초분광영상 데이터를 이용한 딸기 병증 판별 최적 모델 선정

        김은리 ( Eun-ri Kim ),유찬석 ( Chan-seok Ryu ),강예성 ( Ye-seong Kang ),송혜영 ( Hye-young Song ),박기수 ( Ki-su Park ),백현찬 ( Hyeon-chan Baek ),박민준 ( Min-jun Park ),김태양 ( Tae-yang Kim ),박은지 ( Eun-jee Park ) 한국농업기계학회 2022 한국농업기계학회 학술발표논문집 Vol.27 No.2

        딸기는 한국의 대표 과채류 중 하나로 2020년 기준 전체 채소 생산액의 10.9%로 큰 비율을 차지하는 작물이다. 국내 발생 딸기 병해 중 시듦병, 역병은 주로 정식 초기에 토양을 매개로 발생하여 큰 피해를 준다. 본 연구에서는 병증이 유사한 시듦병, 역병, 한해를 신속하고 비 파괴적으로 진단하기 위해 초분광 영상과 머신 러닝 기법을 이용하여 정상 개체와의 분류 모델을 개발하고자 한다. 본 실험은 경상남도 농업기술원 하이테크 유리온실(N35.2105°E128.1174°) 내에서 딸기(매향)로 진행하였으며, 각 처리구별(정상, 시듦병, 역병, 한해) 12개체씩 배치하여 총 48개체로 실험하였다. 온실 내 초분광 센서(FX10, Specim Spectral imaging Ltd, Finland)로 2021년 4월 26일부터 6월 1일까지 총 37일간 매일 1일 1회 11시에서 13시 사이에 영상을 취득하였다. 취득된 영상은 ENVI 5.6 Classic(Exclis Visual Information Solution Inc, USA) 소프트웨어로 암전류 및 광 보정 후, ExG(Excess Green) 지수를 이용하여 식생을 분리하고 단일 개체별 반사값 데이터를 추출하였다. 추출된 데이터는 평활화 유무에 따른 성능 비교를 위해 Savitzky-Golay filtering 기법을 수행하여 학습데이터로 생성하였다. 생성된 데이터로 Decision Tree, Random Forest, XGBoost, LightGBM 4가지 기법을 이용하여 모델을 개발하여 비교하였으며, 평활화 유무와 각 모델에 따른 성능은 Kappa와 F1 Score로 평가하였다. Python(Python 3.7.9, Python Software Foundation, USA)으로 평활화를 진행하지 않은 LightGBM이 Kappa=0.666, F1 Score=0.748로 가장 높은 성능을 나타내었다. Kappa와 F1 Score에서 정상 개체와 병증 간의 오분류가 전체 오분류의 93.7%로 높게 나타났다. 이는 매일 Real Time PCR 결과로 감염 여부를 조사할 수 없어, 최종 PCR 결과를 기반으로 판단된 감염 여부와 실제 감염 시기의 차이로 인한 영향으로 추측된다. 추후 매일 Real Time PCR 검사 또는 병증 감염 지수의 시계열 데이터를 취득하여 분류 모델의 성능을 개선할 수 있을 것으로 판단된다.

      • KCI등재SCOPUS

        무인기 기반 RGB 영상 활용 U-Net을 이용한 수수 재배지 분할

        박기수,유찬석,강예성,김은리,정종찬,박진기,Kisu Park,Chanseok Ryu,Yeseong Kang,Eunri Kim,Jongchan Jeong,Jinki Park 대한원격탐사학회 2023 大韓遠隔探査學會誌 Vol.39 No.5

        When converting rice fields into fields,sorghum (sorghum bicolor L. Moench) has excellent moisture resistance, enabling stable production along with soybeans. Therefore, it is a crop that is expected to improve the self-sufficiency rate of domestic food crops and solve the rice supply-demand imbalance problem. However, there is a lack of fundamental statistics,such as cultivation fields required for estimating yields, due to the traditional survey method, which takes a long time even with a large manpower. In this study, U-Net was applied to RGB images based on unmanned aerial vehicle to confirm the possibility of non-destructive segmentation of sorghum cultivation fields. RGB images were acquired on July 28, August 13, and August 25, 2022. On each image acquisition date, datasets were divided into 6,000 training datasets and 1,000 validation datasets with a size of 512 × 512 images. Classification models were developed based on three classes consisting of Sorghum fields(sorghum), rice and soybean fields(others), and non-agricultural fields(background), and two classes consisting of sorghum and non-sorghum (others+background). The classification accuracy of sorghum cultivation fields was higher than 0.91 in the three class-based models at all acquisition dates, but learning confusion occurred in the other classes in the August dataset. In contrast, the two-class-based model showed an accuracy of 0.95 or better in all classes, with stable learning on the August dataset. As a result, two class-based models in August will be advantageous for calculating the cultivation fields of sorghum.

      • KCI등재

        무인기로 취득한 RGB 영상과 YOLOv5를 이용한 수수 이삭 탐지

        박민준,류찬석,강예성,송혜영,백현찬,박기수,김은리,박 진기,장시형 한국농림기상학회 2022 한국농림기상학회지 Vol.24 No.4

        The purpose of this study is to detect the sorghum panicle using YOLOv5 based on RGB images acquired by a unmanned aerial vehicle (UAV) system. The high-resolution images acquired using the RGB camera mounted in the UAV on September 2, 2022 were split into 512×512 size for YOLOv5 analysis. Sorghum panicles were labeled as bounding boxes in the split image. 2,000images of 512×512 size were divided at a ratio of 6:2:2 and used to train, validate, and test the YOLOv5 model, respectively. When learning with YOLOv5s, which has the fewest parameters among YOLOv5 models, sorghum panicles were detected with mAP@50=0.845. In YOLOv5m with more parameters, sorghum panicles could be detected with mAP@50=0.844. Although the performance of the two models is similar, YOLOv5s (4 hours 35 minutes) has a faster training time than YOLOv5m (5 hours 15 minutes). Therefore, in terms of time cost, developing the YOLOv5s model was considered more efficient for detecting sorghum panicles. As an important step in predicting sorghum yield, a technique for detecting sorghum panicles using high-resolution RGB images and the YOLOv5 model was presented. 본 연구는 수수의 수확량 추정을 위해 무인기로 취득한 RGB 영상과 YOLOv5를 이용하여 수수 이삭 탐지 모델을 개발하였다. 이삭이 가장 잘 식별되는 9월 2일의 영상 중 512×512로 분할된 2000장을 이용하여 모델의 학습, 검증 및 테스트하였다. YOLOv5의 모델 중 가장 파라미터가 적은 YOLOv5s에서 mAP@50=0.845로 수수 이삭을 탐지할 수 있었다. 파라미터가 증가한 YOLOv5m에서는 mAP@50=0.844로 수수 이삭을 탐지할 수 있었다. 두 모델의 성능이 유사하나 YOLOv5s (4시간 35분)가 YOLOv5m (5시간 15분)보다 훈련시간이 더 빨라 YOLOv5s가 수수 이삭 탐지에 효율적이라고 판단된다. 개발된 모델을 이용하여 수수의 수확량 예측을 위한 단위면적당 이삭 수를 추정하는 알고리즘의 기초자료로 유용하게 활용될 것으로 판단된다. 추가적으로 아직 개발의 초기 단계를 감안하면 확보된 데이터를 이용하여 성능 개선 및 다른 CNN 모델과 비교 검토할 필요가 있다고 사료된다.

      • 다중분광 영상을 이용한 배추의 생육정보 추정 회귀 모델

        정종찬 ( Jong-chan Jeong ),유찬석 ( Chan-seok Ryu ),박기수 ( Ki-su Park ),김은리 ( Eun-ri Kim ) 한국농업기계학회 2023 한국농업기계학회 학술발표논문집 Vol.28 No.1

        농업 전망에 따르면 배추는 생산량이 2022년 이후로 계속 줄어드는 추세이고 생산량에 의한 가격 편차가 큰 작물이다. 이러한 문제를 해결하기 위해 생산량과 관련이 깊은 생육정보를 분석하는 연구들이 진행되고 있다. 현재 대부분의 연구는 파괴적인 방법으로 생육정보를 얻어내고 있어, 비파괴적으로 정보를 얻고 분석하는 방법이 필요하다. 따라서 본 연구의 목적은 무인기를 활용한 배추의 다중분광 데이터를 이용하여 비파괴적으로 배추의 생육을 예측할 수 있는 모델을 개발하는 데 있다. 실험은 전라북도 완주군 국립원예특작과학원 실험포장에서 두 품종의 배추(불암3호, 청명가을)를 재배하여 진행하였다. 배추는 9월 7일 파종하였고 11월 9일 파괴조사를 통해 생체중, 엽장, 엽폭, 중륵폭, 중륵두께, SPAD, 엽수, 엽면적의 생육정보를 취득하였다. 영상은 다중분광 센서(Altum-PT, MicaSense Inc, USA)를 탑재한 무인기를 이용하여 11월 8일 정오에 취득하였다. 취득한 영상은 영상분석 소프트웨어(ENVI 5.3, Exelis Visual Information, USA)를 이용하여 반사값을 추출하였으며 식생지수는 NDVI, GNDVI, GRVI, RVI, DVI, NDRE, SAVI, PRI, OSAVI, TCARI를 사용하였다. 통계 프로그램은 Jupyter Notebook 6.5.2(Python 3.9.13)를 이용하였고 샘플 수는 각 품종별 12개씩 총 24개로 진행하였다. 생육정보 추정을 위해 이상치 제거 후 다중선형회귀 모델을 만들었고 데이터셋 분리(train test split)와 변수선택법을 적용하였다. 모델 평가 방법으로는 R², RMSE와 MAPE를 사용하였고 R²가 0.5 이상인 모델들 중, RMSEC가 작고, MAPEC와 MAPEP의 차이가 작을수록 성능이 좋은 모델로 판단하였다. 가장 성능이 좋은 생육정보 추정 모델은 엽수, SPAD에서 PRI를 이용하여 각각 R²=0.68, RMSEC=3.10ea, MAPEC=7.24%, MAPEP=7.26%와 R²=0.72, RMSEC=2.85, MAPEC=15.3%, MAPEP=15.3%로 나타났고 엽장에서는 NDRE, OSAVI를 이용하여 R²=0.51, RMSEC=2.54cm, MAPEC=9.07%, MAPEP=7.08%로 나타났다. 추후 본 연구 결과를 이용한 생육 모니터링과 수확기 영상을 이용한 수확량 예측 모델의 작성이 배추 생산량 안정성 향상에 도움이 되리라 판단된다.

      • KCI등재SCOPUS

        무인기 기반 초분광영상을 이용한 배나무 엽록소 함량 추정

        강예성 ( Ye Seong Kang ),박기수 ( Ki Su Park ),김은리 ( Eun Li Kim ),정종찬 ( Jong Chan Jeong ),유찬석 ( Chan Seok Ryu ),조정건 ( Jung Gun Cho ) 대한원격탐사학회 2023 大韓遠隔探査學會誌 Vol.39 No.5

        과일 나무의 생육을 평가하는 중요한 지표인 엽록소 함량을 추정하는데 비교적 많은 노동력의 투입이 요구되고 오랜 시간이 소요되는 기존의 파괴 조사 대신 비파괴적 조사 방식인 원격탐사기술을 적용하기 위한 연구가 시도되고 있다. 이 연구에서는 2년(2021, 2022) 간 무인기 기반의 초분광 영상을 이용하여 배나무 잎의 엽록소 함량을 비파괴적으로 추정하는 연구를 수행하였다. 영상 처리로 추출된 배나무 캐노피(canopy)의 단일 band 반사율은 시간 변화에 따라 불안정한 복사 효과를 최소화하기 위해 밴드비화(band rationing) 되었다. 밴드 비(band ratios)를 입력 변수로 머신러닝 알고리즘인 elastic-net, k-nearest neighbors (KNN)과 support vector machine을 사용하여 추정(calibration, validation) 모델들을 개발하였다. Full band ratios 기반 추정 모델들의 성능과 비교하여 계산 비용 절감과 재현성 향상에 유리한 key band ratios를 선정하였다. 결과적으로 모든 머신러닝 모델에서 full band ratios를 이용한 calibration에 coefficient of determination (R<sup>2</sup>)≥0.67, root mean squared error (RMSE)≤1.22 μg/㎠, relative error (RE)≤17.9%)와 validation에 R<sup>2</sup>≥0.56, RMSE≤1.41 μg/㎠, RE≤20.7% 성능을 비교하였을 때, key band ratios 네 개가 선정되었다. 머신러닝 모델들 사이에 validation 성능에는 비교적 큰 차이가 없어 calibration 성능이 가장 높았던 KNN 모델을 기준으로 삼았으며, 그 key band ratios는 710/714, 718/722, 754/758, 758/762 nm가 선정되었다. Calibration에서 R<sup>2</sup>=0.80, RMSE=0.94 μg/㎠, RE=13.9%와 validation에서 R<sup>2</sup>=0.57, RMSE=1.40 μg/㎠, RE=20.5%를 나타내었다. Validation의 기준으로 한 성능 결과는 배나무 잎 엽록소 함량을 추정하기에 충분하지 않았지만, 앞으로의 연구에 기준이 될 key band ratios를 선정했다는 것에 의미가 있다. 추후 연구에서는 추정 성능을 향상하기 위해 지속적으로 추가 데이터세트를 확보하여 선정된 key band ratios의 신뢰성 검증과 함께 실제 과원에 재현 가능한 추정 모델로 고도화할 필요가 있다. Studies have tried to apply remote sensing technology, a non-destructive survey method, instead of the existing destructive survey, which requires relatively large labor input and a long time to estimate chlorophyll content, which is an important indicator for evaluating the growth of fruit trees. This study was conducted to non-destructively evaluate the chlorophyll content of pear tree leaves using unmanned aerial vehicle-based hyperspectral imagery for two years (2021, 2022). The reflectance of the single bands of the pear tree canopy extracted through image processing was band rationed to minimize unstable radiation effects depending on time changes. The estimation (calibration and validation) models were developed using machine learning algorithms of elastic-net, k-nearest neighbors (KNN), and support vector machine with band ratios as input variables. By comparing the performance of estimation models based on full band ratios, key band ratios that are advantageous for reducing computational costs and improving reproducibility were selected. As a result, for all machine learning models, when calibration of coefficient of determination (R<sup>2</sup>)≥0.67, root mean squared error (RMSE)≤1.22 μg/㎠, relative error (RE)≤17.9% and validation of R<sup>2</sup>≥0.56, RMSE≤1.41 μg/㎠, RE≤20.7% using full band ratios were compared, four key band ratios were selected. There was relatively no significant difference in validation performance between machine learning models. Therefore, the KNN model with the highest calibration performance was used as the standard, and its key band ratios were 710/714, 718/722, 754/758, and 758/762 nm. The performance of calibration showed R<sup>2</sup>=0.80, RMSE=0.94 μg/㎠, RE=13.9%, and validation showed R<sup>2</sup>=0.57, RMSE=1.40 μg/㎠, RE=20.5%. Although the performance results based on validation were not sufficient to estimate the chlorophyll content of pear tree leaves, it is meaningful that key band ratios were selected as a standard for future research. To improve estimation performance, it is necessary to continuously secure additional datasets and improve the estimation model by reproducing it in actual orchards. In future research, it is necessary to continuously secure additional datasets to improve estimation performance, verify the reliability of the selected key band ratios, and upgrade the estimation model to be reproducible in actual orchards.

      • 딥러닝(의미론적 분할)을 이용한 수수 재배지 추출

        박기수 ( Ki-su Park ),유찬석 ( Chan-seok Ryu ),강예성 ( Ye-seong Kang ),김은리 ( Eun-lee Kim ),정종찬 ( Jong-chan Jeong ),박진기 ( Hye-young Song ) 한국농업기계학회 2023 한국농업기계학회 학술발표논문집 Vol.28 No.1

        수수는 세계 5대 곡물 중 하나이나 국내에서는 소규모로 재배되는 작물로 2009년 이후로 재배면적과 생산량 조사가 이루어지지 않고 있다. 수수는 밭작물의 논 재배시 안정적인 생산이 가능하며 휴경논에 재배된다면 자급률이 상승할 것으로 기대되는 작물이며, 지속적이고 안정적인 수급을 위해서 재배면적과 수량 추정 기술이 요구된다. 따라서 본 연구에서는 수수의 재배면적 산출을 위해 드론 영상을 기반으로 재배지를 추출하는 모델을 개발하였다. 경상북도 안동시 남후면 고상리에 위치한 수수 재배지(36°30'20.3N 128°36'27.6E, 약 18ha, 수수 재배 면적 1.6ha)에서 회전익 무인기(Matrice 300 RTK)에 RGB 카메라(Zenmuse P1)를 탑재하여 2022년 7월 8일부터 9월 2일까지 고도 80m, GSD 1cm/pixel로 총 5회 영상을 취득하였다. 그중 7월 28일에 취득한 영상들을 PIX4D 소프트웨어를 이용하여 접합 후 수수 재배지가 포함된 총 7장의 8,000×8,000pixel의 이미지로 분할하여 불필요한 Dataset 수를 감소시켰다. Label-Studio로 Sorghum, Other의 Class로 라벨링을 진행하였고 라벨링된 8,000×8,000pixel 이미지를 랜덤한 위치에서 1,000장의 2,048×2,048pixel 이미지로 분할하여 Dataset을 생성하였다. Train과 Validation의 Dataset 개수는 각 6,000장, 1,000장으로 나누었고 Unet의 Semantic Segmentation 모델을 생성하여 sparse categorical crossentropy 손실 함수와 sparse categorical accuracy 평가지표를 통해 모델의 성능을 평가하였다. 모델의 성능 개선, 학습 시간 단축, 과적합 방지를 위하여 10 Epoch마다 학습률을 ⅓으로 줄이는 전략과 얼리스탑 기능을 사용하였다. 재배면적 확인을 위한 이미지 분할을 진행한 결과, 총 1000 Epoch 중 61 Epoch의 학습이 진행되어 Train Dataset의 경우 loss = 0.0037, accuracy = 0.9985의 성능을 나타내었고, Validation Dataset의 경우 loss = 0.5111, accuracy = 0.9410의 성능을 도출하였다. 추후 다른 시기의 Dataset 추가를 통해 학습모델 및 validation의 성능 개선의 가능성을 검토할 예정이다.

      연관 검색어 추천

      이 검색어로 많이 본 자료

      활용도 높은 자료

      해외이동버튼