RISS 학술연구정보서비스

검색
다국어 입력

http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.

변환된 중국어를 복사하여 사용하시면 됩니다.

예시)
  • 中文 을 입력하시려면 zhongwen을 입력하시고 space를누르시면됩니다.
  • 北京 을 입력하시려면 beijing을 입력하시고 space를 누르시면 됩니다.
닫기
    인기검색어 순위 펼치기

    RISS 인기검색어

      검색결과 좁혀 보기

      선택해제
      • 좁혀본 항목 보기순서

        • 원문유무
        • 원문제공처
        • 등재정보
        • 학술지명
          펼치기
        • 주제분류
        • 발행연도
          펼치기
        • 작성언어

      오늘 본 자료

      • 오늘 본 자료가 없습니다.
      더보기
      • 무료
      • 기관 내 무료
      • 유료
      • 트랙터 주행 제어를 위한 밭 경운 경계 및 선회 지점 검출

        서다솜 ( Dasom Seo ),김경철 ( Kyoung-chul Kim ),이명훈 ( Myunghun Lee ),류희석 ( Hee-seok Ryu ),홍영기 ( Youngki Hong ),김현종 ( Hyunjong Kim ),이시영 ( Siyoung Lee ),김국환 ( Gookhwan Kim ) 한국농업기계학회 2020 한국농업기계학회 학술발표논문집 Vol.25 No.2

        본 논문은 영상을 기반으로 한 밭에서의 트랙터 자율주행을 위해 트랙터가 따라 주행할 수 있도록 추종선을 검출하고 작업 영역 끝에서 다음 작업 영역으로 선회하여 진입할 수 있도록 선회지점을 검출한다. CNN(Convolutional neural network) 기반 차선 검출 모델인 LaneNet을 활용해 밭 경운 경계 검출 모델을 학습시킨다, LaneNet은 도로 영상에서 차선을 이진 분할하기 위한 binary segmentation branch와 차로의 순서를 구분하는 instance segmentation branch로 이루어져 있는데, 밭 작업 환경에서는 차로 구분이 없으므로 binary segmentation branch만 분할해 사용한다. 로타베이터가 작업하고 지나간 영역과 작업하기 전 영역 사이의 경계를 세그먼트 형태로 검출하고, 검출된 세그먼트에서 특징과 제어점을 추출해 트랙터 주행 제어에 활용하도록 한다. 로타베이터 작업은 상하 각 6m, 좌우 각 2m의 침지를 경운한 후 이루어지며, 트랙터의 첫 주행은 침지를 따라 진행된다. 날씨나 조광 등에 따른 야외에서의 다양한 상황에서 대응할 수 있도록 날씨 별(맑음, 흐림), 시간대 별로 총 9 가지 상황에서 2,980 프레임의 주행 영상을 수집해 2,533 프레임을 학습 집합, 149 프레임을 검증 집합으로 활용했다. 학습은 학습률 0.0005, 배치 사이즈 6으로 RTX NVIDIA 2080ti GPU에서 이루어졌으며, 검출 성능 0.95를 달성했다. 검출된 세그먼트는 추종할 좌우 작업경계와 작업 영역의 끝을 알리는 수평 경계로 이루어진다. 세그먼트 검출 후 원근 변환을 통해 실제 좌표계에서의 세그먼트 위치를 구한 후, 수평 경계가 트랙터 회전축으로부터 6m 앞 지점에서 검출되면 선회 지점으로 출력한다. 좌우 경계로부터는 세그먼트의 상하 양 끝의 좌표를 구하고, 두 좌표로부터 직선의 방정식을 구해 트랙터와 나란한 지점에서의 경계 좌표를 구한다.

      • 과채류 수확 로봇 개발을 위한 깊이 추정 기법의 온실 환경으로의 적용

        서다솜 ( Dasom Seo ),김용현 ( Yong-hyun Kim ),조병효 ( Byeong-hyo Cho ),송혜영 ( Hye-young Song ),김원경 ( Won-kyung Kim ),김경철 ( Kyoung Chul Kim ) 한국농업기계학회 2021 한국농업기계학회 학술발표논문집 Vol.26 No.2

        과채류 수확 로봇을 온실에 적용하기 위해서는 대상이 되는 작물에 대한 객체 인식이 필요하다. 현재 Faster R-CNN, Yolo, SSD 등 딥러닝 기반 객체 검출 모델들이 농업에 적용되는 사례가 많으며, 위 기술들은 장면에 포함된 모든 객체를 검출한다. 그러나 온실 내 배지 사이의 레일을 따라 작동하는 로봇 특성상, 작업 중인 구역의 객체만 인식하는 것이 유리하다. 때문에, 최근 RGB-D 카메라나 스테레오 카메라 등을 이용해 영상의 깊이를 함께 활용하는 연구가 시도되고 있지만, 별도의 깊이 카메라 장착이 필요하고 외부광으로 인한 깊이 영상 노이즈 발생 등의 문제가 있다. 본 논문은 온실에서 별도의 깊이 센서 없이 2D 영상에서 깊이를 추정하는 방식을 제안한다. 깊이 추정(Depth estimation)은 싱글 카메라로 촬영한 RGB 영상을 입력했을 때 깊이 맵이 출력되도록 하는 기법이다. 본 논문에서는 의미론적 분할(Semantic Segmantation) 기법의 하나인 UNet을 응용하는 방식으로 접근한다. 토마토 배지 재배 온실에서 촬영한 데이터를 기반으로 UNet을 학습했으며, Intel RealSense D435 카메라를 이용해 RGB 영상과 깊이 영상을 동시에 수집했다. 카메라를 모바일 로봇에 탑재해 레일을 따라 선형으로 촬영했으며, 생육 생장을 마친 토마토가 촬영 대상이기 때문에 지면으로부터 1m, 배지로부터 0.6m 떨어진 곳에 카메라를 설치했다. 촬영된 실제 깊이 맵은 16bit의 값을 가지지만, UNet 학습 시 입력과 정답 영상 모두 8bit 영상 형식을 요구하기 때문에 8bit로 압축해서 적용했다. 위와 같은 이유로 정답 영상에 손실된 정보가 많아 학습 결과 깊이 맵이 제대로 형성되지 않은 것을 확인했다. 향후 UNet의 학습 시 정답 영상을 손실 없이 압축하거나 16bit 배열 형식으로 학습할 수 있도록 해 한계점을 해결하고 수확 로봇 개발 시 2D 카메라만 사용하여 비용 및 연산량 절감을 이루고자 한다.

      • 영상 기반 경운 경계 검출 정보를 활용한 트랙터 조향 제어

        서다솜 ( Dasom Seo ),양창주 ( Changju Yang ),김경철 ( Kyoung-chul Kim ),이명훈 ( Meunghun Lee ),권경도 ( Kyung-do Kwon ),홍영기 ( Youngki Hong ),이시영 ( Siyoung Lee ),김현종 ( Hyunjong Kim ),류희석 ( Hee-seok Ryu ),김국환 ( Gookh 한국농업기계학회 2020 한국농업기계학회 학술발표논문집 Vol.25 No.2

        본 논문은 기존 GPS 기반의 자율주행 방식과는 달리 2D 기계시각을 이용하여 트랙터 경운 작업시 주행 기준선을 자동으로 검출하여 트랙터 조향 제어 기술을 개발하였다. 심층학습 기반 영상분석을 통해 정면 영상의 구역별로 경작부, 미경작부, 배경으로 분류한 후, 부류의 경계를 활용으로 추종경로를 검출하였다. 자율주행 기능이 탑재된 트랙터에 장착된 카메라를 통해 실시간으로 얻어진 영상을 이용하여 추종경로를 검출하고 이를 활용한 조향 제어를 위한 제어 입력 값을 도출하였다. 본 논문에서는 CNN 기반 차선검출(Lane detection) 모델 중 하나인 LaneNet의 일부를 수정, 활용하여 트랙터 조향 제어를 위한 추종경로를 검출하였다. 학습을 위한 데이터셋(Dataset)은 논, 밭과 같은 농작업 환경이라는 특수한 상황에서의 CNN 모델 활용을 위해 KITTI, tuSimple 등의 기존 자율주행 오픈 데이터셋을 사용하지 않고, 노지에서 직접 수집하였고 검출된 추종경로로부터 트랙터 제어에 필요한 정보를 도출하였고, 영상 시야 안에 트랙터 엔진룸 중심에 표식(이하 마커) 부착하고 이를 기준으로 트랙터와 추종경로 사이의 거리를 측정하여 이를 기반으로 조향 제어를하였다. 실제 밭 현장에서 경운한 영상으로 실시간 추종경로 검출 및 조향 제어시스템 검증을 진행하였다. 현장실험에는 Intel Core i5-8400T CPU와 GeForce RTX 2070 GPU가 탑재된 컴퓨터와 데이터셋을 얻을 때 사용했던 LS엠트론사의 XU6168 트랙터를 사용하였다. 실시간으로 영상 프레임에서 추종경로를 검출하고 이를 따라 주변속 2단, 부변속 2단에서 2500RPM으로 주행시켰다. 트랙터의 위치 기준점는 입력영상과 엔진룸 위의 마커와 템플릿을 매칭시켜 구하였다. 본 논문에서는 제어 특성을 알아보기 위해 미리 촬영한 영상을 기반으로 참값(Ground truth, GT) 영상과 알고리즘을 통해 얻은 추종경로 검출 영상과의 차(Differece) 영상을 통해 인식 정확도를 확인하였는데, 두 영상 간의 포함 관계를 정량적으로 평가하는 평균 Recall 성능은 0.58을 기록하였다. 이는 검출된 추종경로를 활용한 제어가 안정적으로 이루어질 수 있다는 것을 의미하고, 이를 활용한 PID 제어기로 직진 제어한 결과, ±10pixel 이내에서 안정적으로 주행함을 알 수 있었다.

      • 비전 센서를 이용한 자율 경운 트랙터의 조향각 산출

        서다솜 ( Dasom Seo ),김경철 ( Kyoung-chul Kim ),이명훈 ( Myunghun Lee ),류희석 ( Hee-seok Ryu ),홍영기 ( Youngki Hong ),유병기 ( Byeong-kee Yu ),김현종 ( Hyunjong Kim ),이시영 ( Siyoung Lee ),김국환 ( Gookhwan Kim ) 한국농업기계학회 2019 한국농업기계학회 학술발표논문집 Vol.24 No.2

        최근 농가 인구 감소 및 고령화에 의한 노동력 부족 현상으로 농업 기계 지능화 및 무인화에 대한 필요성이 대두되어 왔다. 농기계 무인화는 자율주행 기술과의 결합을 통해 실현 가능할 것으로 예상되며 최근 RTK-GPS와 액추에이터를 이용하여 애드온 타입의 요소 기술을 활용한 연구 및 제품 개발이 진행되고 있다. 그러나 현재 적용 중인 GPS, 레이저센서 및 스티어링 조작 시스템은 매우 고가로, 소규모 농가에서 도입하기에는 어려움이 있다. 본 연구는 기존 시스템에 비해 경제적인 비전 센서, 즉 카메라를 이용한 트랙터 자율 경운 알고리즘을 개발하기 위한 선행 연구로, 밭에 적용하기에 앞서 트랙터 시험장에서 기초 실험을 진행하였다. 트랙터 운전석 쪽에 카메라를 설치하고 주행 영상을 촬영하면서 실시간으로 차선을 추출, 차선추종을 위한 차선 각도 및 거리를 산출하였다. VGG-16 기반 차선 검출 신경망 모델인 LaneNet을 응용해 차선을 이진 세그먼트(binary segments)로 검출한 후, 연결 성분(connected components)을 계산해 잡음을 제거하였다. 잡음이 제거된 차선 세그먼트에서 차선의 각도와 트랙터와 차선 사이의 거리를 추정하였다. 영상을 촬영할 때, 트랙터의 엔진룸 앞 부분에 마커를 카메라 FOV(field of view)의 가운데 아래 부분에 위치시켜 기준(reference)으로 삼았고, 템플릿 매칭(template matching)을 이용해 매 프레임마다 검출하였다. 이 때, 검출된 기준의 좌표를 (x<sub>0</sub>, y<sub>0</sub>)라 하면, 트랙터와 차선 사이의 거리는 기준으로부터 차선 방향으로 수평으로 이동했을 때 맞닿는 점인 (x<sub>1</sub>, y<sub>0</sub>) 와 기준(x<sub>0</sub>, y<sub>0</sub>)사이의 거리 |x<sub>1</sub>, y<sub>0</sub>|를 이용하였다. 조향각은 차선 위의 임의의 점 (x<sub>2</sub>, y<sub>2</sub>)과 점 (x<sub>1</sub>, y<sub>0</sub>)사이의 직선의 기울기arctan □□□□를 이용하여 산출하였다. 실시간 처리속도는 프레임당 NVIDIA RTX 2080ti 기준 0.04초, Intel i7-4770 기준 0.6초로, 트랙터의 느린 작업 주행 속도를 감안하였을 때, 실시간 영상을 이용한 제어가 충분하다고 판단되었다. 실험을 통해 검증된 차선각도 및 제어기술을 토대로, 논밭 환경에 적용하여 경운이 이루어진 영역과 그렇지 않은 영역을 나누고 조향각을 산출, 이를 활용한 자율 경운 기술을 개발할 예정이다.

      • KCI등재
      • KCI등재

        딥러닝 설명을 위한 슈퍼픽셀 제외·포함 다중스케일 접근법

        서다솜((Dasom Seo),오강한(KangHan Oh),오일석(Il-Seok Oh),유태웅(Tae-Woong Yoo) 한국스마트미디어학회 2019 스마트미디어저널 Vol.8 No.2

        As deep learning became popular, the research that explained the prediction results became important. Recently, superpixel based multi-scale combining technique has been proposed, which provides the advantage of visual pleasing by maintaining the shape of the object. Based on the principle of prediction difference, this technique computes the saliency map by the difference between the predicted result excluding the superpixel and the original predicted result. In this paper, we propose a new technique that not only excludes super pixels but also includes super pixels. Experimental results show 3.3% improvement in IoU evaluation.

      • KCI등재
      • KCI등재

        딥러닝 설명을 위한 슈퍼픽셀 제외·포함 다중스케일 접근법

        서다솜,오강한,오일석,유태웅,Seo, Dasom,Oh, KangHan,Oh, Il-Seok,Yoo, Tae-Woong 한국스마트미디어학회 2019 스마트미디어저널 Vol.8 No.2

        As deep learning has become popular, researches which can help explaining the prediction results also become important. Superpixel based multi-scale combining technique, which provides the advantage of visual pleasing by maintaining the shape of the object, has been recently proposed. Based on the principle of prediction difference, this technique computes the saliency map from the difference between the predicted result excluding the superpixel and the original predicted result. In this paper, we propose a new technique of both excluding and including super pixels. Experimental results show 3.3% improvement in IoU evaluation.

      • KCI등재

        딥러닝 기반 등검은말벌 모니터링 시스템 개발

        김경철(Kyoung-Chul Kim),서다솜(Dasom Seo),최인찬(Inchan Choi),홍영기(Young-Ki Hong),김국환(Gookhwan Kim),권경도(Kyung-Do Kwon) 한국산학기술학회 2021 한국산학기술학회논문지 Vol.22 No.10

        4차 산업혁명 관련 기술들이 발전함에 따라, 농업 분야에도 이를 활용한 연구가 증가하고 있다. 특히, 이미지 활용 객체 인식 또는 분류에 인공지능 기술을 적용하여 농업 현장의 문제를 해결하고자 하고 있다. 최근 양봉산업에서 꿀벌 개체 수의 감소는 매우 중요한 문제 중 하나이다. 이에 대한 원인 중 가장 큰 비중을 차지하고 있는 말벌의 출현정보를 작업자에게 전달하기 위한 모니터링 시스템을 개발하고자 한다. 대부분의 양봉장의 경우 전력공급에 제한이 있어, 저전력 기반의 태양광 충전시스템이 적용된 이미지 취득 시스템을 개발하였다. 아울러 개체 인식을 위해서 딥러닝(Yolo) 기술을 적용하여 꿀벌과 등검은말벌을 구분하여 인식할 수 있도록 하였다. 등검은말벌 인식을 위한 이미지 데이터 1,928개 중 1,350장(약 70%)는 기계학습에 사용하였으며, 나머지 578장(약 30%)로 검증을 하였다. 연구 결과 기계학습 프로세서는 약 98.2%의 정확도로 인식할 수 있었다. 추가로 현장에서 촬영된 추가 동영상 데이터를 활용하여 등검은말벌의 출현을 인지할 수 있었다. 등검은말벌 출현 알림 자동화 시스템을 통하여 말벌로부터 꿀벌의 개체수 감소를 억제할 것으로 판단되며, 향후 등검은말벌집 탐색을 위한 연구로 확대할 예정이다. As the 4th industrial revolution technologies develop, research conducted using these technologies is also increasing in several fields, including agriculture. In particular, these technologies solve problems in the agricultural sector by applying artificial intelligence technology to image-based object recognition or classification. The recent decline in the number of bees is one of the most important issues in the beekeeping industry. We intend to develop a monitoring system to inform the appearance of wasps, which is the most significant cause for the decline in the number of bees. Most apiaries have limited power supply, so we developed an image acquisition system with a low power-based solar charging system. In addition, we applied deep learning (Yolo) technology for individual recognition distinguishing the bees and Vespa velutina. We used 1,350 images (about 70%) of 1,928 image data to train the black wasp recognizing machine learning and verified the remaining 578 images (about 30%). At the end of the study, the machine learning processor was able to recognize black wasps with an accuracy of about 98.2%. In addition, we were able to recognize the appearance of the Vespa velutina by using additional video data recorded on site. It is judged that the decrease in the number of bees from wasps can be suppressed through the automated system of notifying the appearance of Vespa velutina. In the future, it is planned to expand the study to explore the nearby Vespa velutina nest.

      연관 검색어 추천

      이 검색어로 많이 본 자료

      활용도 높은 자료

      해외이동버튼