http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.
변환된 중국어를 복사하여 사용하시면 됩니다.
인공지능 기반 잡초 분류 모델 개발을 위한 데이터 획득 연구
권경도 ( Kyung-do Kwon ),홍영기 ( Young-ki Hong ),최인찬 ( Inchan Choi ),김국환 ( Gookhwan Kim ),김경철 ( Kyoung Chul Kim ) 한국농업기계학회 2021 한국농업기계학회 학술발표논문집 Vol.26 No.2
잡초는 재배 작물 생장에 방해가 되고 나아가 농가의 수익에도 영향을 줄 수 있다. 대부분의 농가에서는 단일화된 제초제를 사용하고 있어 제초 성능 저하, 제초제의 오·남용 등의 문제가 발생한다. 이에 본 연구에서는 인공지능 기반 잡초 분류 모델의 개발 및 맞춤형 제초에 활용 가능한 데이터 구축이 목표이다. 우리나라에서 많이 재배되는 노지작물(벼, 콩, 옥수수 등)의 재배지에서 주로 발견되는 잡초 중 강피, 바랭이, 흰명아주 등 14종을 데이터 구축의 대상으로 선정했다. 목표 RGB 영상 데이터의 총 수량은 약 35만 장으로, 잡초의 전체 영상 약 12만 장, 잡초의 부분 확대 영상 약 24만 장으로 계획했다. RGB 영상은 광 조건을 비롯하여 주변 환경에 영향을 많이 받아 샘플 간 일정한 품질 확보에 어려움이 발생하지만, 제한된 환경 구성을 통해 비교적 원활하게 데이터를 확보했다. 획득한 데이터는 폴리곤 라벨링 과정을 거쳐 인공지능 잡초 분류 모델 개발에 사용했다. 잡초 분류 모델은 Mask-RCNN을 기반으로 개발되었다. 현재까지 데이터 획득 진척도는 약 10만 장 수준이지만, 지속적인 데이터 획득을 계획하고 있다. 추후 연구에서 분류 모델 성능 개선, 구축한 잡초 영상 데이터의 품질 검증 및 맞춤형 제초를 위한 정보 제공 방안 수립 등을 수행할 계획이다.
권경도 ( Kyung-do Kwon ),김조철 ( Jocheol Kim ),신나리 ( Nari Sin ),최우주 ( Woo-joo Choi ) 한국농업기계학회 2022 한국농업기계학회 학술발표논문집 Vol.27 No.2
잡초 제거는 작물의 정상적인 생육과 수확량에 크게 영향을 주는 농작업 중 하나로 수시로 잡초 제거가 진행되어야 한다. 하지만 잡초 제거 시 예초기 및 농기구 사용 미숙에 따른 사고, 근골격계 질환, 농약에 중독되는 등 크고 작은 피해가 발생하고 있다. 이러한 작업자의 안전사고 방지와 투입되는 노동력 감소를 위해 자동화 및 무인화 시스템에 관한 연구가 활발하게 진행되고 있다. 본 연구에서는 밭에서 발견되는 잡초를 작물과 구분하는 알고리즘을 개발해 스마트 농업기술 발전에 활용하고자 했다. 재배 중인 콩(전라남도 나주)과 콩 주위의 잡초를 함께 촬영하여 영상 데이터를 획득했다. 출현기부터 1주일 간격으로 7주 동안 주기적으로 획득하여 인식 모델 개발을 위한 학습 데이터를 구축했다. 작물과 잡초의 인식을 위해 CNN 기반의 모델을 활용했다. 인식 모델의 과적합을 방지하기 위해 Accuracy와 loss가 일정 값에 수렴하는지 확인하고, 학습 모델의 깊이와 학습 수를 설정했다. 작물과 잡초의 인식 결과에서 유의미한 결과를 도출했으며, 본 연구에서 개발된 인식 모델을 활용하면 선택적 잡초 제거에 활용될 수 있음을 확인했다. 추후 연구에서 데이터 다양성 확보, 대상 작물 확대 및 인식 알고리즘 최적화를 통해 인식 정확도를 높일 예정이다.
권경도 ( Kyung-do Kwon ),김조철 ( Jocheol Kim ),신나리 ( Nari Sin ),최우주 ( Woo-joo Choi ) 한국농업기계학회 2022 한국농업기계학회 학술발표논문집 Vol.27 No.2
잡초 제거는 작물의 정상적인 생육과 수확량에 크게 영향을 주는 농작업 중 하나로 수시로 잡초 제거가 진행되어야 한다. 하지만 잡초 제거 시 예초기 및 농기구 사용 미숙에 따른 사고, 근골격계 질환, 농약에 중독되는 등 크고 작은 피해가 발생하고 있다. 이러한 작업자의 안전사고 방지와 투입되는 노동력 감소를 위해 자동화 및 무인화 시스템에 관한 연구가 활발하게 진행되고 있다. 본 연구에서는 밭에서 발견되는 잡초를 작물과 구분하는 알고리즘을 개발해 스마트 농업기술 발전에 활용하고자 했다. 재배 중인 콩(전라남도 나주)과 콩 주위의 잡초를 함께 촬영하여 영상 데이터를 획득했다. 출현기부터 1주일 간격으로 7주 동안 주기적으로 획득하여 인식 모델 개발을 위한 학습 데이터를 구축했다. 작물과 잡초의 인식을 위해 CNN 기반의 모델을 활용했다. 인식 모델의 과적합을 방지하기 위해 Accuracy와 loss가 일정 값에 수렴하는지 확인하고, 학습 모델의 깊이와 학습 수를 설정했다. 작물과 잡초의 인식 결과에서 유의미한 결과를 도출했으며, 본 연구에서 개발된 인식 모델을 활용하면 선택적 잡초 제거에 활용될 수 있음을 확인했다. 추후 연구에서 데이터 다양성 확보, 대상 작물 확대 및 인식 알고리즘 최적화를 통해 인식 정확도를 높일 예정이다.
소도체 품질 판정을 위한 RGB 영상처리 기술의 적용 가능성 연구
권경도 ( Kyung-do Kwon ),모창연 ( Changyeun Mo ),임종국 ( Jongguk Lim ),김기영 ( Giyoung Kim ),강정숙 ( Jungsook Kang ),이영주 ( Youngju Lee ),조병관 ( Byoung-kwan Cho ),이왕희 ( Wanghee Lee ),양승환 ( Seunghwan Yang ) 한국농업기계학회 2017 한국농업기계학회 학술발표논문집 Vol.22 No.2
국내를 포함한 대부분의 국가에서는 인력(판정사)에 의해 소고기의 품질 등급을 결정하고 있다. 각 나라마다 등급 판정 절차는 상이하지만, 판정 인자는 등급판정부위(국내에서는 좌도체 흉추와 제1 요추 사이의 등심 쪽 절단면)의 근내지방도, 육색, 지방색, 조직감 등으로 크게 다르지 않다. 하지만 판정 과정에서 숙련된 판정사일지라도 주관적인 판단이 포함된다. 이를 해결하고 더 객관적인 정보를 획득하기 위해 다양한 장치와 분석 방법들을 기반으로 활발한 연구가 진행되고 있지만, 실제 현장 적용은 힘든 실정이다. 따라서 본 연구는 사람의 시각을 대체하고 객관적인 데이터를 획득하기 위해 Computer vision 장치와 영상처리를 이용한 소고기 품질 평가에 활용될 시스템 구축을 위한 기초 연구이다. 연구에 사용된 소고기는 실제 판정에 사용되는 등급판정부위를 등급별(1++, 1+, 1 2, 3 등급)로 준비하였다. 각 시료마다 RGB 영상을 획득하고, 품질 판정을 위해 이 영상들을 이용하였다. 영상처리를 위해 왜곡 및 색상 보정, 배경 제거, 관심영역 추출, 고기와 지방 부위 분할 등을 순차적으로 수행하였다. 이는 등급 판정에 주요인자인 근내지방도를 정량적으로 측정하는 알고리즘 개발에 기초 단계로의 활용이 적합하다고 판단된다. 추후 연구에서 이를 중점적으로 다뤄 최종 목표인 자동 품질 판정 시스템 구축에 기여하고자 한다.
토마토 인식을 위한 효율적인 학습데이터 가공 방법 연구
손민하 ( Min-ha Son ),권경도 ( Kyung-do Kwon ),김원경 ( Won-kyung Kim ),홍영기 ( Young-ki Hong ),서강훈 ( Gang-hun Seo ),김경철 ( Kyoung-chul Kim ) 한국농업기계학회 2022 한국농업기계학회 학술발표논문집 Vol.27 No.2
현재, 국내 토마토 생산의 대부분이 시설재배로 이루어지고 있으며, 토마토 재배면적은 6,010ha로 전체 시설작물 재배면적의 약 7.26%를 차지하고 있다. 최근에는 생산량 증가, 생산비 감소 및 상품화율 증가 등으로 인하여 일반 시설재배에서 스마트 온실로 전환하는 농가가 증가하고 있는 추세로, 이와 관련하여 수경재배 방식으로 재배되는 토마토의 방제, 수확 등의 전반적인 작업을 농업용 로봇을 이용하여 자동화하기 위한 연구가 활발하게 수행되고 있다. 특히, 작물인식은 농업용 로봇의 필수적인 요소기술로써, 작물 인식 시에 잎이나 줄기 및 다른 과실에 의해 가려져서 나타나는 문제점을 해결하기 위한 다양한 연구가 수행 중에 있다. 따라서 본 연구에서는 농업용 로봇의 작물 인식모델 개발을 위한 기초연구로써, 작물의 가려진 부분을 고려하여 라벨링 한 학습모델과 고려하지 않고 라벨링한 학습모델의 인식 정확도를 비교하여 효율적인 학습데이터 가공 방법을 제안하고자 하였다. 모델학습에 이용된 데이터셋은 총 269개의 이미지와 1,990개의 어노테이션 데이터로, 국립농업과학원(전라북도 완주군)의 스마트 온실에서 RGB-D 카메라(D435, In tel, CA, USA)로 촬영하였다. 또한 bounding box 기법을 사용하여 라벨링 하였으며, 75% 이상 가려진 토마토와 뒷 배지의 토마토는 제외하였다. YOLOv4 모델을 활용하여 기계학습을 진행한 결과, IoU50 (Intersection over Union)에서 최고 mAP (mean Average Precision)는 가려진 부분을 고려한 모델과 고려하지 않은 모델이 각각 74.86%, 72.06%로, 가려진 부분을 예측하여 라벨링 한 학습모델의 정확도가 2.8% 더 높은 것으로 나타났다. 하지만 실제 모델에 적용하기에는 다소 낮은 정확도로 판단되므로, 추후 연구에서 더 많은 양의 데이터셋를 적용하여 모델의 정확도를 향상 시켜 두 모델의 성능을 평가하고자 한다.