http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.
변환된 중국어를 복사하여 사용하시면 됩니다.
RGBD 센서와 딥러닝을 응용한 과실의 비대 예측 및 적정 수확기 판단기술 개발
김응찬 ( Eungchan Kim ),이창협 ( Chang-hyup Lee ),노승우 ( Seungwoo Roh ),류지원 ( Jiwon Ryu ),김대영 ( Daeyoung Kim ),김기석 ( Ghiseok Kim ) 한국농업기계학회 2021 한국농업기계학회 학술발표논문집 Vol.26 No.2
4차 산업 혁명에 따른 기술의 발전이 농업 분야에도 물결이 조용하고 빠르게 번지고 있다. 이러한 스마트팜에 적용되는 여러 가지 기술 중 특정 작물 및 과실에 대한 영상 기반 객체 인식 및 검출 기술은 과실의 생육 측정을 위한 모니터링의 자동화 및 로봇 기반 수확을 위하여 필수적이다. 특히 최근에는 합성곱신경망(Convolutional Neural Network, CNN) 기반의 딥러닝 모델을 활용하여 영상의 객체 검출 분야에서 높은 성능을 보이며, 스마트팜에 요구되는 영상인식 기술에서 다양하게 적용되고 있다. 본 연구에서는 사과(홍로)를 대상 과실로 지정하였으며, RGB-D 센서를 통해 현지 농가에서 획득한 사과의 RGB 영상과 Depth 영상을 이용하였다. 영상 내 과실의 검출에 이용되는 합성곱신경망 기반의 네트워크인 EfficientDet D2를 주로 적용하여 영상 내 사과의 개수와 위치, 특히 검출 상자의 위치를 정확하게 찾는 것을 우선시하였다. 또한, 과실의 생육 경과를 확인하기 위해서 검출된 사과의 픽셀 좌표와 깊이 센서를 통해 얻은 3차원 깊이 정보를 병합하여 과실의 비대를 예측하고 실제 과실의 크기와 비교 측정하여 검증하는 과정을 진행하였다.
오이 수확로봇의 꼭지 인식을 위한 U-Net 기반의 차폐 영역 복원 기술 개발
류지원 ( Jiwon Ryu ),김성제 ( Sungjay Kim ),홍석주 ( Suk-ju Hong ),노승우 ( Seungwoo Roh ),김응찬 ( Eungchan Kim ),김기석 ( Ghiseok Kim ) 한국농업기계학회 2021 한국농업기계학회 학술발표논문집 Vol.26 No.2
최근 인공지능 및 계측, 제어 기술의 발달과 함께 스마트팜에서의 수확로봇 개발 연구가 활발히 진행되고 있다. 수확로봇의 작업 정확도와 효율성 확보를 위해서는 빠르고 정확한 과실 인식 기술이 필수적이고, 과실이 잎에 가려진 경우에도 수확을 위한 절단 부위를 잘 인식할 수 있어야 한다. 특히 오이의 경우, 과실이 잎에 가려진 경우가 많아 기존의 오이 과실 인식 기술만으로는 절단 부위 인식에 한계가 있다. 따라서 오이 영상으로부터 꼭지 주위의 차폐 영역을 복원하는 기술을 통한 꼭지 위치 파악이 필요하다. 이를 위해 본 연구에서는 영상 분할 (segmentation)에 주로 이용되는 합성곱신경망 (CNN)의 일종인 U-Net과 U-Net++ 아키텍처를 활용하여 RGB 오이 이미지에서 꼭지 주위의 차폐 영역 복원 기술을 개발하였고, 모델의 인코더로 다양한 특징추출기 (feature extractor)를 활용한 후 복원 정확도를 비교, 평가 하였다.