RISS 학술연구정보서비스

검색
다국어 입력

http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.

변환된 중국어를 복사하여 사용하시면 됩니다.

예시)
  • 中文 을 입력하시려면 zhongwen을 입력하시고 space를누르시면됩니다.
  • 北京 을 입력하시려면 beijing을 입력하시고 space를 누르시면 됩니다.
닫기
    인기검색어 순위 펼치기

    RISS 인기검색어

      검색결과 좁혀 보기

      선택해제
      • 좁혀본 항목 보기순서

        • 원문유무
        • 원문제공처
        • 등재정보
        • 학술지명
        • 주제분류
        • 발행연도
        • 작성언어
        • 저자
          펼치기

      오늘 본 자료

      • 오늘 본 자료가 없습니다.
      더보기
      • 무료
      • 기관 내 무료
      • 유료
      • KCI등재

        HRNet 기반 해양침적쓰레기 수중영상의 의미론적 분할

        김대선,김진수,장성웅,박수호,공신우,곽지우,배재구,Kim, Daesun,Kim, Jinsoo,Jang, Seonwoong,Bak, Suho,Gong, Shinwoo,Kwak, Jiwoo,Bae, Jaegu 대한원격탐사학회 2022 大韓遠隔探査學會誌 Vol.38 No.6

        Destroying the marine environment and marine ecosystem and causing marine accidents, marine debris is generated every year, and among them, submerged marine debris is difficult to identify and collect because it is on the seabed. Therefore, deep-learning-based semantic segmentation was experimented on waste fish nets and waste ropes using underwater images to identify efficient collection and distribution. For segmentation, a high-resolution network (HRNet), a state-of-the-art deep learning technique, was used, and the performance of each optimizer was compared. In the segmentation result fish net, F1 score=(86.46%, 86.20%, 85.29%), IoU=(76.15%, 75.74%, 74.36%), For the rope F1 score=(80.49%, 80.48%, 77.86%), IoU=(67.35%, 67.33%, 63.75%) in the order of adaptive moment estimation (Adam), Momentum, and stochastic gradient descent (SGD). Adam's results were the highest in both fish net and rope. Through the research results, the evaluation of segmentation performance for each optimizer and the possibility of segmentation of marine debris in the latest deep learning technique were confirmed. Accordingly, it is judged that by applying the latest deep learning technique to the identification of submerged marine debris through underwater images, it will be helpful in estimating the distribution of marine sedimentation debris through more accurate and efficient identification than identification through the naked eye.

      • KCI등재

        HRNet-OCR과 Swin-L 모델을 이용한 조식동물 서식지 수중영상의 의미론적 분할

        김형우 ( Hyungwoo Kim ),장선웅 ( Seonwoong Jang ),박수호 ( Suho Bak ),공신우 ( Shinwoo Gong ),곽지우 ( Jiwoo Kwak ),김진수 ( Jinsoo Kim ),이양원 ( Yangwon Lee ) 대한원격탐사학회 2022 大韓遠隔探査學會誌 Vol.38 No.5

        이 연구에서는 국내 연안어장을 대상으로 조식동물 및 서식지에 대한 수중영상 기반의 인공지능 학습자료를 구축하고, state-of-the-art (SOTA) 모델인 High Resolution Network-Object Contextual Representation (HRNet-OCR)과 Shifted Windows-L (Swin-L)을 이용하여, 조식동물 서식지 수중영상의 의미론적 분할을 수행함으로써 화소 또는 화소군 간의 공간적 맥락(상관성)을 반영하는 보다 실제적인 탐지 결과를 제시하였다. 조식동물 서식지인 감태, 모자반의 수중영상 레이블 중 1,390장을 셔플링(shuffling)하여 시험평가를 수행한 결과, 한국수산자원공단의DeepLabV3+ 사례에 비해 약 29% 향상된 정확도를 도출하였다. 모든 클래스에 대해 Swin-L이 HRNet-OCR보다 판별율이 더 좋게 나타났으며, 특히 데이터가 적은 감태의 경우, Swin-L이 해당 클래스에 대한 특징을 더 풍부하게 반영할 수 있는 것으로 나타났다. 영상분할 결과 대상물과 배경이 정교하게 분리되는 것을 확인되었는데, 이는 Transformer 계열 백본을 활용하면서 특징 추출능력이 더욱 향상된 것으로 보인다. 향후 10,000장의 레이블 데이터베이스가 완성되면 추가적인 정확도 향상이 가능할 것으로 기대된다. In this paper, we presented a database construction of undersea images for the Habitats of Ecklonia cava and Sargassum and conducted an experiment for semantic segmentation using state-of-the-art (SOTA) models such as High Resolution Network-Object Contextual Representation (HRNet-OCR) and Shifted Windows-L (Swin-L). The result showed that our segmentation models were superior to the existing experiments in terms of the 29% increased mean intersection over union (mIOU). Swin-L model produced better performance for every class. In particular, the information of the Ecklonia cava class that had small data were also appropriately extracted by Swin-L model. Target objects and the backgrounds were well distinguished owing to the Transformer backbone better than the legacy models. A bigger database under construction will ensure more accuracy improvement and can be utilized as deep learning database for undersea images.

      • KCI등재

        YOLOv5와 YOLOv7 모델을 이용한 해양침적쓰레기 객체탐지 비교평가

        박강현,윤유정,강종구,김근아,최소연,장선웅,박수호,공신우,곽지우,이양원,Park, Ganghyun,Youn, Youjeong,Kang, Jonggu,Kim, Geunah,Choi, Soyeon,Jang, Seonwoong,Bak, Suho,Gong, Shinwoo,Kwak, Jiwoo,Lee, Yangwon 대한원격탐사학회 2022 大韓遠隔探査學會誌 Vol.38 No.6

        Deposited Marine Debris(DMD) can negatively affect marine ecosystems, fishery resources, and maritime safety and is mainly detected by sonar sensors, lifting frames, and divers. Considering the limitation of cost and time, recent efforts are being made by integrating underwater images and artificial intelligence (AI). We conducted a comparative study of You Only Look Once Version 5 (YOLOv5) and You Only Look Once Version 7 (YOLOv7) models to detect DMD from underwater images for more accurate and efficient management of DMD. For the detection of the DMD objects such as glass, metal, fish traps, tires, wood, and plastic, the two models showed a performance of over 0.85 in terms of Mean Average Precision (mAP@0.5). A more objective evaluation and an improvement of the models are expected with the construction of an extensive image database.

      • KCI등재SCOPUS

        수중영상을 이용한 저서성 해양무척추동물의 실시간 객체 탐지: YOLO 모델과 Transformer 모델의 비교평가

        박강현 ( Ganghyun Park ),박수호 ( Suho Bak ),장선웅 ( Seonwoong Jang ),공신우 ( Shinwoo Gong ),곽지우 ( Jiwoo Kwak ),이양원 ( Yangwon Lee ) 대한원격탐사학회 2023 大韓遠隔探査學會誌 Vol.39 No.5

        저서성 해양무척추동물은 해양 바닥에서 서식하는 무척추동물로서 해양 생태계의 중요한 구성원이지만, 이 중에서 조식동물이나 해적생물이 과도하게 번식하면 연안어장 생태계에 피해를 야기할 수 있다. 본 연구에서는 저서성 해양무척추동물을 대상으로 우리나라 연안에서 수중 촬영한 영상을 활용하여, 실시간 객체 탐지를 위한 딥러닝 모델로 가장 널리 사용되는 You Only Look Once Version 7 (YOLOv7)과 트랜스포머 계열 모델인 detection transformer (DETR)을 비교평가 하였다. YOLOv7이 mean average precision at 0.5 (mAP@0.5) =0.899, DETR이 mAP@0.5=0.862를 기록하였는데, YOLOv7은 멀티스케일(multiscale)로 바운딩 박스(bounding box)를 생성하는 구조이기 때문에 작은 객체를 포함하여 다양한 크기의 객체 탐지에 보다 적합한 것으로 사료된다. 두 모델 모두 30 frames per second (FPS) 이상의 처리속도를 보였기 때문에, 잠수부 촬영영상 및 수중드론 영상에 대한 실시간 객체탐지가 가능할 것으로 기대된다. 이를 통해 조식동물 구제, 바다 사막화 방지를 위한 바다숲 조성 등 연안어장 생태계 피해 방지 및 복원에 활용될 수 있을 것이다. Benthic marine invertebrates, the invertebrates living on the bottom of the ocean, are an essential component of the marine ecosystem, but excessive reproduction of invertebrate grazers or pirate creatures can cause damage to the coastal fishery ecosystem. In this study, we compared and evaluated You Only Look Once Version 7 (YOLOv7), the most widely used deep learning model for real-time object detection, and detection tansformer (DETR), a transformer-based model, using underwater images for benthic marine invertebrates in the coasts of South Korea. YOLOv7 showed a mean average precision at 0.5 (mAP@0.5) of 0.899, and DETR showed an mAP@0.5 of 0.862, which implies that YOLOv7 is more appropriate for object detection of various sizes. This is because YOLOv7 generates the bounding boxes at multiple scales that can help detect small objects. Both models had a processing speed of more than 30 frames per second (FPS), so it is expected that real-time object detection from the images provided by divers and underwater drones will be possible. The proposed method can be used to prevent and restore damage to coastal fisheries ecosystems, such as rescuing invertebrate grazers and creating sea forests to prevent ocean desertification.

      연관 검색어 추천

      이 검색어로 많이 본 자료

      활용도 높은 자료

      해외이동버튼