RISS 학술연구정보서비스

검색
다국어 입력

http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.

변환된 중국어를 복사하여 사용하시면 됩니다.

예시)
  • 中文 을 입력하시려면 zhongwen을 입력하시고 space를누르시면됩니다.
  • 北京 을 입력하시려면 beijing을 입력하시고 space를 누르시면 됩니다.
닫기
    인기검색어 순위 펼치기

    RISS 인기검색어

      검색결과 좁혀 보기

      선택해제
      • 좁혀본 항목 보기순서

        • 원문유무
        • 원문제공처
        • 등재정보
        • 학술지명
          펼치기
        • 주제분류
        • 발행연도
          펼치기
        • 작성언어
        • 저자
          펼치기

      오늘 본 자료

      • 오늘 본 자료가 없습니다.
      더보기
      • 무료
      • 기관 내 무료
      • 유료
      • KCI등재
      • 비전 센서를 이용한 자율 경운 트랙터의 조향각 산출

        서다솜 ( Dasom Seo ),김경철 ( Kyoung-chul Kim ),이명훈 ( Myunghun Lee ),류희석 ( Hee-seok Ryu ),홍영기 ( Youngki Hong ),유병기 ( Byeong-kee Yu ),김현종 ( Hyunjong Kim ),이시영 ( Siyoung Lee ),김국환 ( Gookhwan Kim ) 한국농업기계학회 2019 한국농업기계학회 학술발표논문집 Vol.24 No.2

        최근 농가 인구 감소 및 고령화에 의한 노동력 부족 현상으로 농업 기계 지능화 및 무인화에 대한 필요성이 대두되어 왔다. 농기계 무인화는 자율주행 기술과의 결합을 통해 실현 가능할 것으로 예상되며 최근 RTK-GPS와 액추에이터를 이용하여 애드온 타입의 요소 기술을 활용한 연구 및 제품 개발이 진행되고 있다. 그러나 현재 적용 중인 GPS, 레이저센서 및 스티어링 조작 시스템은 매우 고가로, 소규모 농가에서 도입하기에는 어려움이 있다. 본 연구는 기존 시스템에 비해 경제적인 비전 센서, 즉 카메라를 이용한 트랙터 자율 경운 알고리즘을 개발하기 위한 선행 연구로, 밭에 적용하기에 앞서 트랙터 시험장에서 기초 실험을 진행하였다. 트랙터 운전석 쪽에 카메라를 설치하고 주행 영상을 촬영하면서 실시간으로 차선을 추출, 차선추종을 위한 차선 각도 및 거리를 산출하였다. VGG-16 기반 차선 검출 신경망 모델인 LaneNet을 응용해 차선을 이진 세그먼트(binary segments)로 검출한 후, 연결 성분(connected components)을 계산해 잡음을 제거하였다. 잡음이 제거된 차선 세그먼트에서 차선의 각도와 트랙터와 차선 사이의 거리를 추정하였다. 영상을 촬영할 때, 트랙터의 엔진룸 앞 부분에 마커를 카메라 FOV(field of view)의 가운데 아래 부분에 위치시켜 기준(reference)으로 삼았고, 템플릿 매칭(template matching)을 이용해 매 프레임마다 검출하였다. 이 때, 검출된 기준의 좌표를 (x<sub>0</sub>, y<sub>0</sub>)라 하면, 트랙터와 차선 사이의 거리는 기준으로부터 차선 방향으로 수평으로 이동했을 때 맞닿는 점인 (x<sub>1</sub>, y<sub>0</sub>) 와 기준(x<sub>0</sub>, y<sub>0</sub>)사이의 거리 |x<sub>1</sub>, y<sub>0</sub>|를 이용하였다. 조향각은 차선 위의 임의의 점 (x<sub>2</sub>, y<sub>2</sub>)과 점 (x<sub>1</sub>, y<sub>0</sub>)사이의 직선의 기울기arctan □□□□를 이용하여 산출하였다. 실시간 처리속도는 프레임당 NVIDIA RTX 2080ti 기준 0.04초, Intel i7-4770 기준 0.6초로, 트랙터의 느린 작업 주행 속도를 감안하였을 때, 실시간 영상을 이용한 제어가 충분하다고 판단되었다. 실험을 통해 검증된 차선각도 및 제어기술을 토대로, 논밭 환경에 적용하여 경운이 이루어진 영역과 그렇지 않은 영역을 나누고 조향각을 산출, 이를 활용한 자율 경운 기술을 개발할 예정이다.

      • KCI등재
      • 트랙터 주행 제어를 위한 밭 경운 경계 및 선회 지점 검출

        서다솜 ( Dasom Seo ),김경철 ( Kyoung-chul Kim ),이명훈 ( Myunghun Lee ),류희석 ( Hee-seok Ryu ),홍영기 ( Youngki Hong ),김현종 ( Hyunjong Kim ),이시영 ( Siyoung Lee ),김국환 ( Gookhwan Kim ) 한국농업기계학회 2020 한국농업기계학회 학술발표논문집 Vol.25 No.2

        본 논문은 영상을 기반으로 한 밭에서의 트랙터 자율주행을 위해 트랙터가 따라 주행할 수 있도록 추종선을 검출하고 작업 영역 끝에서 다음 작업 영역으로 선회하여 진입할 수 있도록 선회지점을 검출한다. CNN(Convolutional neural network) 기반 차선 검출 모델인 LaneNet을 활용해 밭 경운 경계 검출 모델을 학습시킨다, LaneNet은 도로 영상에서 차선을 이진 분할하기 위한 binary segmentation branch와 차로의 순서를 구분하는 instance segmentation branch로 이루어져 있는데, 밭 작업 환경에서는 차로 구분이 없으므로 binary segmentation branch만 분할해 사용한다. 로타베이터가 작업하고 지나간 영역과 작업하기 전 영역 사이의 경계를 세그먼트 형태로 검출하고, 검출된 세그먼트에서 특징과 제어점을 추출해 트랙터 주행 제어에 활용하도록 한다. 로타베이터 작업은 상하 각 6m, 좌우 각 2m의 침지를 경운한 후 이루어지며, 트랙터의 첫 주행은 침지를 따라 진행된다. 날씨나 조광 등에 따른 야외에서의 다양한 상황에서 대응할 수 있도록 날씨 별(맑음, 흐림), 시간대 별로 총 9 가지 상황에서 2,980 프레임의 주행 영상을 수집해 2,533 프레임을 학습 집합, 149 프레임을 검증 집합으로 활용했다. 학습은 학습률 0.0005, 배치 사이즈 6으로 RTX NVIDIA 2080ti GPU에서 이루어졌으며, 검출 성능 0.95를 달성했다. 검출된 세그먼트는 추종할 좌우 작업경계와 작업 영역의 끝을 알리는 수평 경계로 이루어진다. 세그먼트 검출 후 원근 변환을 통해 실제 좌표계에서의 세그먼트 위치를 구한 후, 수평 경계가 트랙터 회전축으로부터 6m 앞 지점에서 검출되면 선회 지점으로 출력한다. 좌우 경계로부터는 세그먼트의 상하 양 끝의 좌표를 구하고, 두 좌표로부터 직선의 방정식을 구해 트랙터와 나란한 지점에서의 경계 좌표를 구한다.

      • 영상 기반 경운 경계 검출 정보를 활용한 트랙터 조향 제어

        서다솜 ( Dasom Seo ),양창주 ( Changju Yang ),김경철 ( Kyoung-chul Kim ),이명훈 ( Meunghun Lee ),권경도 ( Kyung-do Kwon ),홍영기 ( Youngki Hong ),이시영 ( Siyoung Lee ),김현종 ( Hyunjong Kim ),류희석 ( Hee-seok Ryu ),김국환 ( Gookh 한국농업기계학회 2020 한국농업기계학회 학술발표논문집 Vol.25 No.2

        본 논문은 기존 GPS 기반의 자율주행 방식과는 달리 2D 기계시각을 이용하여 트랙터 경운 작업시 주행 기준선을 자동으로 검출하여 트랙터 조향 제어 기술을 개발하였다. 심층학습 기반 영상분석을 통해 정면 영상의 구역별로 경작부, 미경작부, 배경으로 분류한 후, 부류의 경계를 활용으로 추종경로를 검출하였다. 자율주행 기능이 탑재된 트랙터에 장착된 카메라를 통해 실시간으로 얻어진 영상을 이용하여 추종경로를 검출하고 이를 활용한 조향 제어를 위한 제어 입력 값을 도출하였다. 본 논문에서는 CNN 기반 차선검출(Lane detection) 모델 중 하나인 LaneNet의 일부를 수정, 활용하여 트랙터 조향 제어를 위한 추종경로를 검출하였다. 학습을 위한 데이터셋(Dataset)은 논, 밭과 같은 농작업 환경이라는 특수한 상황에서의 CNN 모델 활용을 위해 KITTI, tuSimple 등의 기존 자율주행 오픈 데이터셋을 사용하지 않고, 노지에서 직접 수집하였고 검출된 추종경로로부터 트랙터 제어에 필요한 정보를 도출하였고, 영상 시야 안에 트랙터 엔진룸 중심에 표식(이하 마커) 부착하고 이를 기준으로 트랙터와 추종경로 사이의 거리를 측정하여 이를 기반으로 조향 제어를하였다. 실제 밭 현장에서 경운한 영상으로 실시간 추종경로 검출 및 조향 제어시스템 검증을 진행하였다. 현장실험에는 Intel Core i5-8400T CPU와 GeForce RTX 2070 GPU가 탑재된 컴퓨터와 데이터셋을 얻을 때 사용했던 LS엠트론사의 XU6168 트랙터를 사용하였다. 실시간으로 영상 프레임에서 추종경로를 검출하고 이를 따라 주변속 2단, 부변속 2단에서 2500RPM으로 주행시켰다. 트랙터의 위치 기준점는 입력영상과 엔진룸 위의 마커와 템플릿을 매칭시켜 구하였다. 본 논문에서는 제어 특성을 알아보기 위해 미리 촬영한 영상을 기반으로 참값(Ground truth, GT) 영상과 알고리즘을 통해 얻은 추종경로 검출 영상과의 차(Differece) 영상을 통해 인식 정확도를 확인하였는데, 두 영상 간의 포함 관계를 정량적으로 평가하는 평균 Recall 성능은 0.58을 기록하였다. 이는 검출된 추종경로를 활용한 제어가 안정적으로 이루어질 수 있다는 것을 의미하고, 이를 활용한 PID 제어기로 직진 제어한 결과, ±10pixel 이내에서 안정적으로 주행함을 알 수 있었다.

      • 과채류 수확 로봇 개발을 위한 깊이 추정 기법의 온실 환경으로의 적용

        서다솜 ( Dasom Seo ),김용현 ( Yong-hyun Kim ),조병효 ( Byeong-hyo Cho ),송혜영 ( Hye-young Song ),김원경 ( Won-kyung Kim ),김경철 ( Kyoung Chul Kim ) 한국농업기계학회 2021 한국농업기계학회 학술발표논문집 Vol.26 No.2

        과채류 수확 로봇을 온실에 적용하기 위해서는 대상이 되는 작물에 대한 객체 인식이 필요하다. 현재 Faster R-CNN, Yolo, SSD 등 딥러닝 기반 객체 검출 모델들이 농업에 적용되는 사례가 많으며, 위 기술들은 장면에 포함된 모든 객체를 검출한다. 그러나 온실 내 배지 사이의 레일을 따라 작동하는 로봇 특성상, 작업 중인 구역의 객체만 인식하는 것이 유리하다. 때문에, 최근 RGB-D 카메라나 스테레오 카메라 등을 이용해 영상의 깊이를 함께 활용하는 연구가 시도되고 있지만, 별도의 깊이 카메라 장착이 필요하고 외부광으로 인한 깊이 영상 노이즈 발생 등의 문제가 있다. 본 논문은 온실에서 별도의 깊이 센서 없이 2D 영상에서 깊이를 추정하는 방식을 제안한다. 깊이 추정(Depth estimation)은 싱글 카메라로 촬영한 RGB 영상을 입력했을 때 깊이 맵이 출력되도록 하는 기법이다. 본 논문에서는 의미론적 분할(Semantic Segmantation) 기법의 하나인 UNet을 응용하는 방식으로 접근한다. 토마토 배지 재배 온실에서 촬영한 데이터를 기반으로 UNet을 학습했으며, Intel RealSense D435 카메라를 이용해 RGB 영상과 깊이 영상을 동시에 수집했다. 카메라를 모바일 로봇에 탑재해 레일을 따라 선형으로 촬영했으며, 생육 생장을 마친 토마토가 촬영 대상이기 때문에 지면으로부터 1m, 배지로부터 0.6m 떨어진 곳에 카메라를 설치했다. 촬영된 실제 깊이 맵은 16bit의 값을 가지지만, UNet 학습 시 입력과 정답 영상 모두 8bit 영상 형식을 요구하기 때문에 8bit로 압축해서 적용했다. 위와 같은 이유로 정답 영상에 손실된 정보가 많아 학습 결과 깊이 맵이 제대로 형성되지 않은 것을 확인했다. 향후 UNet의 학습 시 정답 영상을 손실 없이 압축하거나 16bit 배열 형식으로 학습할 수 있도록 해 한계점을 해결하고 수확 로봇 개발 시 2D 카메라만 사용하여 비용 및 연산량 절감을 이루고자 한다.

      • 수경재배 작물 모니터링로봇의 특정영역인식 시스템 개발

        김용현 ( Yong-hyun Kim ),서다솜 ( Dasom Seo ),조병효 ( Byeong-hyo Cho ),김원경 ( Won-kyung Kim ),송혜영 ( Hye-young Song ),김경철 ( Kyoung Chul Kim ) 한국농업기계학회 2021 한국농업기계학회 학술발표논문집 Vol.26 No.2

        작물 모니터링 및 수확 로봇의 인식을 위해 CCD 카메라가 많이 사용되고 있다. 수경재배의 경우 작물 인식을 위해 CCD카메라를 활용하게 되면 뒤에 있는 작물을 인식하는 문제가 있다. 이러한 문제점은 작물의 모니터링 및 수확 시 로봇의 작업 정확도를 저하하는 원인이 될 수 있다. 이러한 이유로 최근에는 RGB-D 카메라를 이용하는 연구가 진행되고 있으며, RGB-D 카메라는 세 가지 색상 채널(RGB; Red, Green, and Blue) 외에도 깊이 채널(D)을 제공하기 때문에 이미지에서 특정 지점까지의 거리를 추정할 수 있다. 따라서 본 연구에서는 수확 로봇의 작업거리 영역만 검출하기 위해 RGB-D 카메라(ZED2, StereoLabs, San Francisco CA, USA)를 적용하고자 하였다. 먼저, RGB-D 카메라를 이용하여 토마토 온실의 2D 영상 및 3D 데이터를 취득하였다. 취득된 2D 영상 및 3D 데이터는 좌표 정합을 한 후, 각 픽셀의 거리 값을 계산하였고, 카메라와의 거리가 800 mm 이상인 영역은 모두 block으로 처리하였다. 그 결과, 모니터링 로봇의 작업거리 영역의 작물만을 인식하기 위해 RGB-D 카메라가 사용될 수 있음을 확인하였다. 그러나 1080720 사이즈의 모든 픽셀 값을 처리하는데 0.1 fps의 처리시간이 걸렸다. 향후에는 모든 픽셀이 아닌 작물이 인식된 픽셀 값 만을 처리하여 인식 시스템을 개선할 계획이다.

      • 재활치료실의 공간환경이 재활의료서비스전체에 대한 환자만족도에 미치는 영향

        이나경(Nakyung Lee),서다솜(Dasom Seo),송경은(Kueoungeun Song) 한국HCI학회 2018 한국HCI학회 학술대회 Vol.2018 No.1

        이 연구의 목적은 재활기관의 재활치료공간에 대한 만족도를 평가하여 재활의료서비스 전체에 대한 만족도에 대한 상관관계 및 영향을 조사하는 것이다. 대전지역 여섯 개 병원 및 재활기관에서 환자들을 대상으로 설문조사를 진행하였다. 재활치료 공간환경만족도를 나타내는 문항들을 일곱개의 구성(공간디자인, 쾌적도, 개별성과 소통성, 길찾기, 층간 이동성, 치료실의 층 위치, 주변 공간)으로 범주화하였다. 자료를 피어슨의 상관관계계수와 다중회귀분석을 통해 분석하였다. 그 결과, 재활치료 공간환경만족도는 재활의료서비스 전체만족도와 중간정도의 유의한 상관관계를 보였다 (r=0.477, p<0.001). 공간환경만족도는 서비스 전체만족도의 24.9%를 설명하였으며 특히 공간환경 구성 중 공간디자인과 개별성/소통성은 서비스 전체만족도에 유의적인 영향을 미치는 인자인 것으로 나타났다 (β=0.13∼0.16, p<0.05). 결론적으로, 재활기관의 재활치료실 공간환경만족도는 전체 재활의료서비스만족도에 관련이 되며 영향을 미치는 것으로 파악되므로, 만족스러운 재활치료실 공간환경을 구축하는 것은 전체적인 재활의료서비스에 대한 환자의 만족도를 높이는데 기여할 것으로 사료된다. 그 중에서도 공간디자인과 개별성/소통성은 영향이 분명한 인자로서 더 무게를 두고 고려되어야 할 것이다.

      연관 검색어 추천

      이 검색어로 많이 본 자료

      활용도 높은 자료

      해외이동버튼