RISS 학술연구정보서비스

검색
다국어 입력

http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.

변환된 중국어를 복사하여 사용하시면 됩니다.

예시)
  • 中文 을 입력하시려면 zhongwen을 입력하시고 space를누르시면됩니다.
  • 北京 을 입력하시려면 beijing을 입력하시고 space를 누르시면 됩니다.
닫기
    인기검색어 순위 펼치기

    RISS 인기검색어

      검색결과 좁혀 보기

      선택해제
      • 좁혀본 항목 보기순서

        • 원문유무
        • 원문제공처
          펼치기
        • 등재정보
        • 학술지명
          펼치기
        • 주제분류
        • 발행연도
          펼치기
        • 작성언어
        • 저자
          펼치기

      오늘 본 자료

      • 오늘 본 자료가 없습니다.
      더보기
      • 무료
      • 기관 내 무료
      • 유료
      • KCI등재

        딥러닝 YOLOv5 객체 인식을 이용한 반려동물 품종 분류 방법에 대한 연구

        박태주(Tae-Ju Park),송특섭(Teuk-Seob Song) 한국정보통신학회 2023 한국정보통신학회논문지 Vol.27 No.4

        이세돌과 알파고의 바둑경기 이후 딥러닝에 대한 관심이 폭발적으로 증가하였다. 현재는 챗GPT를 비롯하여 딥러닝의 많은 기술이 우리 생활 속에 깊이 들어와 있고 연구자 뿐만 아니라 일반인도 딥러닝을 사용할 만큼 많은 분야에 응용되고 있다. 딥러닝은 CNN, YOLO 등 많은 모델이 발표 되고 있다. 특히, YOLO는 이미지를 사용한 객체 인식분야에 우수한 성능을 보이고 있어서 불량품인식, 쓰레기분리, 몰고기 인식 등 다양한 분야에 응용되고 있다. 일반적으로 딥러닝의 객체 인식은 많은 양의 데이터를 사용하여 학습한다. 본 연구는 반려동물을 대상으로 적은 수의 데이터를 학습한 후 인식방법에 대해 연구하였다. YOLO는 IoU를 기본으로 동작하기 때문에 반려동물 인식에 적합한 IoU를 설정하여 인식하는 방법을 제안하였다. After the Go match between Sedol Lee and AlphaGo, interest in deep learning exploded. Recently, many technologies of deep learning, including ChatGPT, are deeply embedded in our lives, and not only researchers but also the general public are using deep learning in many fields. In deep learning, many models such as CNN and YOLO are being introduced in these days. In particular, YOLO shows excellent performance in the object recognition field using images, so it is applied to various fields such as defective product recognition, garbage separation, and driving meat recognition. In general, object recognition in deep learning is learned using a large amount of data. This study studied the recognition method after learning a more smaller number of data than previous works for companion animals. Since YOLO operates based on IoU, we proposed a recognition method by setting IoU suitable for companion animal recognition.

      • KCI등재

        Bounding Box CutMix와 표준화 거리 기반의 IoU를 통한 재활용품 탐지

        이해진,정희철,Lee, Haejin,Jung, Heechul 대한임베디드공학회 2022 대한임베디드공학회논문지 Vol.17 No.5

        In this paper, we developed a deep learning-based recyclable object detection model. The model is developed based on YOLOv5 that is a one-stage detector. The deep learning model detects and classifies the recyclable object into 7 categories: paper, carton, can, glass, pet, plastic, and vinyl. We propose two methods for recyclable object detection models to solve problems during training. Bounding Box CutMix solved the no-objects training images problem of Mosaic, a data augmentation used in YOLOv5. Standardized Distance-based IoU replaced DIoU using a normalization factor that is not affected by the center point distance of the bounding boxes. The recyclable object detection model showed a final mAP performance of 0.91978 with Bounding Box CutMix and 0.91149 with Standardized Distance-based IoU.

      • KCI등재

        Hellinger 거리 IoU와 Objectron 적용을 기반으로 하는 객체 감지

        김용길,문경일 한국인터넷방송통신학회 2022 한국인터넷방송통신학회 논문지 Vol.22 No.2

        Although 2D Object detection has been largely improved in the past years with the advance of deep learning methods and the use of large labeled image datasets, 3D object detection from 2D imagery is a challenging problem in a variety of applications such as robotics, due to the lack of data and diversity of appearances and shapes of objects within a category. Google has just announced the launch of Objectron that has a novel data pipeline using mobile augmented reality session data. However, it also is corresponding to 2D-driven 3D object detection technique. This study explores more mature 2D object detection method, and applies its 2D projection to Objectron 3D lifting system. Most object detection methods use bounding boxes to encode and represent the object shape and location. In this work, we explore a stochastic representation of object regions using Gaussian distributions. We also present a similarity measure for the Gaussian distributions based on the Hellinger Distance, which can be viewed as a stochastic Intersection-over-Union. Our experimental results show that the proposed Gaussian representations are closer to annotated segmentation masks in available datasets. Thus, less accuracy problem that is one of several limitations of Objectron can be relaxed. 2D 객체 감지 시스템은 최근 몇 년 동안 심층 신경망과 대규모 이미지 데이터세트의 사용으로 크게 개선되었지만, 아직도 범주 내에서 데이터 부족, 다양한 외관 및 객체 형상 때문에 자율 탐색 등과 같은 로봇 공학과 관련된 응용에서 2D 물체 감지 시스템은 적절하지 않다. 최근에 소개되고 있는 구글 Objectron 또한 증강 현실 세션 데이터를 사용하는 새로운 데이터 파이프라인이라는 점에서 도약이라 할 수 있지만, 3D 공간에서 2D 객체 이해라는 측면에서 마찬가지로 한계가 있다. 이에 본 연구에서는 더 성숙한 2D 물체 감지 방법을 Objectron에 도입하는 3D 물체 감지 시스템을나타낸다. 대부분의 객체 감지 방법은 경계 상자를 사용하여 객체 모양과 위치를 인코딩한다. 본 작업에서는 가우스 분포를 사용하여 객체 영역의 확률적 표현을 탐색하는데, 일종의 확률적 IoU라 할 수 있는 Hellinger 거리를 기반으로 하는가우스 분포에 대한 유사성 측도를 제시한다. 이러한 2D 표현은 모든 객체 감지기에 원활하게 통합할 수 있으며, 실험결과 데이터 집합에서 주석이 달린 분할 영역에 더 가까워서 Objectron의 단점이라 할 수 있는 3D 감지 정확도를 높일수 있다.

      • KCI등재

        YOLO 알고리즘을 이용한 전차 국적 식별 및 평가

        임승균(Seunggyun Lim),강동수(Dongsu Kang) 한국정보과학회 2021 정보과학회 컴퓨팅의 실제 논문지 Vol.27 No.12

        인공지능 딥러닝 기술이 적용된 무기체계가 지속적으로 개발된다. 기존의 전차 피아식별 시스템은 사람의 눈으로 표적을 획득하고 공격 여부를 판단한다. 따라서 신속성과 정확성 측면에서 한계가 존재한다. 본 연구에서는 이러한 제한사항을 개선하기 위해 YOLO(You Only Look Once) 알고리즘 기반의 전차 국적 식별 방법을 제안한다. 먼저, 한국, 미국, 일본, 북한의 4개국의 주력 전차 사진을 수집한다. 특히, 실제 기갑 전투의 상황과 유사하도록 노이즈를 추가하고 이미지 전처리 작업을 한다. 이후 데이터셋은 학습 데이터의 적절한 규모를 확인하기 위해 8개의 그룹으로 구성한다. 마지막으로 평가 척도인 mAP와 IoU를 기반으로 적절한 데이터 규모를 분석한다. Advanced weapon systems with artificial intelligence deep learning technology will be continuously. The existing identification system of friend or foe on tank targets with human eyes determine whether to attack. Therefore, there are limitations in terms of speed and accuracy. In this paper, we propose a YOLO(You Only Look Once) Algorithm-based tank nationality identification method to improve these limitations. First, we collect photos of the main tank from four countries South Korea, the United States, Japan and North Korea. In particular, similar to the actual armored battle, we add noise and do image preprocessing. Afterward, the dataset organized into eight groups to check the appropriate size of the learning data. Finally, we analyze the appropriate data size based on the evaluation scales, mAP and IoU.

      • KCI우수등재

        객체 탐지에서의 효율적인 예측 박스 회귀 학습을 위한 둘레 기반 IoU 손실함수

        김현준(Hyun-Jun Kim),최동완(Dong-Wan Choi) Korean Institute of Information Scientists and Eng 2021 정보과학회논문지 Vol.48 No.8

        In object detection, neural networks are generally trained by minimizing two types of losses simultaneously, namely classification loss and regression loss for bounding boxes. However, the regression loss often fails to achieve its ultimate goal, that is, it often obtains a predicted bounding box that maximally intersects with its target box. This is due to the fact that the regression loss is not highly correlated with the IoU, which actually measures how much the bounding box and its target box overlap with each other. Although several penalty terms have been invented and added to the IoU loss in order to address the problem of regression losses, they still show some inefficiency particularly when penalty terms become zero by enclosing another box or overlapping with the center point before the bounding box and its target box are perfectly the same. In this paper, we propose a perimeter based IoU (PIoU) loss exploiting the perimeter differences of the minimum bounding rectangle of both a predicted box and its target box from those of two boxes themselves. In our experiments using the state-of-the-art object detection models (e.g., YOLO v3, SSD, and FCOS), we show that our PIoU loss consistently achieves better accuracy than all the other existing IoU losses.

      • KCI등재

        한우 무게 추정을 위한 영상 분할 방법의 고찰

        강윤정(Yunjeong Kang),김태양(TaeYang Kim),조완현(Wanhyun Cho),나명환(Myung Hwan Na) 한국자료분석학회 2021 Journal of the Korean Data Analysis Society Vol.23 No.6

        가축의 무게를 측정하는 과정은 매우 어려운 작업이고 가축들에게 많은 스트레스가 유발하게 되어 이들의 성장에 저해 요인으로 작용한다. 만약에 가축 영상을 통해서 가축의 무게를 자동으로 확인할 수 있다면 이러한 문제를 해결할 수 있을 뿐만 아니라 가축들의 급이량 조절이나 건강 상태 파악에 많은 도움을 줄 수 있다. 따라서, 본 연구는 한우 무게를 자동으로 측정하기 위해서 3D 영상으로부터 한우를 분할할 수 있는 여러 가지 분할 방법을 고찰하였다. 먼저, 이 연구에서 활용된 데이터는 강원도 원주에 소재하는 축산농가에서 Intel RealSense Depth Camera(D455)를 활용하여 수집하였으며, 학습을 위한 라벨링 값으로 개체별로 계근대를 이용하여 한우의 무게를 측정하였다. 두 번째로, 우리는 색상 특성(HSV), 깊이 특성(Depth), 그리고 GrabCut 알고리즘을 기반으로 한우 영상 속의 몸체와 배경을 자동으로 분할할 수 있는 방법을 제안하였다. 세 번째로, 이들 분할 방법들의 성능을 비교하기 위하여 IoU(Intersection over Union) 측도를 활용하였다. 실험 결과로부터, 우리는 GrabCut 알고리즘과 깊이 정보를 결합한 객체 분할 방법이 다른 방법들에 비교해서 가장 높은 IoU 측도를 보임으로써 이것이 가장 우수한 분할 방법임으로 확인하였다. The process of measuring the weight of livestock is a very difficult task and causes a lot of stress on the livestock, which acts as a hindrance to their growth. If it is possible to automatically check the weight of livestock through livestock images, this problem can be solved, and it can help a lot in controlling the amount of feed or understanding the health status of the livestock. Therefore, this study considered various segmentation methods that can segment Korean cattle from 3D images in order to automatically measure the weight of Korean cattle. First, the data used in this study were collected by using Intel RealSense Depth Camera (D455) at a livestock farm in Wonju, Gangwon-do, and the weight of Korean cattle was measured by using a weighbridge for each individual. Second, we proposed a method for automatically segmenting the body and background of Korean cattle images based on color characteristics (HSV), depth characteristics (Depth), and the GrabCut algorithm. Third, an Intersection over Union (IoU) measure was used to compare the performance of these partitioning methods. From the experimental results, we confirmed that the object segmentation method combining the GrabCut algorithm and depth information is the best segmentation method as it shows the highest IoU measure compared to other methods.

      • KCI등재

        CT 영상 기반 근감소증 진단을 위한 AI 영상분할 모델 개발 및 검증

        이충섭 ( Lee Chung-sub ),임동욱 ( Lim Dong-wook ),노시형 ( Noh Si-hyeong ),김태훈 ( Kim Tae-hoon ),고유선 ( Ko Yousun ),김경원 ( Kim Kyung Won ),정창원 ( Jeong Chang-won ) 한국정보처리학회 2023 정보처리학회논문지. 컴퓨터 및 통신시스템 Vol.12 No.3

        근감소증은 국내는 2021년 질병으로 분류되었을 만큼 잘 알려져 있지 않지만 고령화사회에 진입한 선진국에서는 사회적 문제로 인식하고 있다. 근감소증 진단은 유럽노인근감소증 진단그룹(EWGSOP)과 아시아근감소증진단그룹(AWGS)에서 제시하는 국제표준지침을 따른다. 최근 진단방법으로 절대적 근육량 이외에 신체수행평가로 보행속도 측정과 일어서기 검사 등을 통하여 근육 기능을 함께 측정할 것을 권고하고 있다. 근육량을 측정하기 위한 대표적인 방법으로 DEXA를 이용한 체성분 분석 방법이 임상에서 정식으로 실시하고 있다. 또한 MRI 또는 CT의 복부 영상을 이용하여 근육량을 측정하는 다양한 연구가 활발하게 진행되고 있다. 따라서 본 논문에서는 근감소증 진단을 위해서 비교적 짧은 촬영시간을 갖는 CT의 복부영상기반으로 AI 영상 분할 모델을 개발하고 다기관 검증한 내용을 기술한다. 우리는 CT 영상 중에 요추의 L3 영역을 분류하여 피하지방, 내장지방, 근육을 자동으로 분할할 수 있는 인공지능 모델을 U-Net 모델을 사용하여 개발하였다. 또한 모델의 성능평가를 위해서 분할영역의 IOU(Intersection over Union)를 계산하여 내부검증을 진행했으며, 타 병원의 데이터를 활용하여 동일한 IOU 방법으로 외부검증을 진행한 결과를 보인다. 검증 결과를 토대로 문제점과 해결방안에 대해서 검증하고 보완하고자 했다. Sarcopenia is not well known enough to be classified as a disease in 2021 in Korea, but it is recognized as a social problem in developed countries that have entered an aging society. The diagnosis of sarcopenia follows the international standard guidelines presented by the European Working Group for Sarcopenia in Older People (EWGSOP) and the d Asian Working Group for Sarcopenia (AWGS). Recently, it is recommended to evaluate muscle function by using physical performance evaluation, walking speed measurement, and standing test in addition to absolute muscle mass as a diagnostic method. As a representative method for measuring muscle mass, the body composition analysis method using DEXA has been formally implemented in clinical practice. In addition, various studies for measuring muscle mass using abdominal images of MRI or CT are being actively conducted. In this paper, we develop an AI image segmentation model based on abdominal images of CT with a relatively short imaging time for the diagnosis of sarcopenia and describe the multicenter validation. We developed an artificial intelligence model using U-Net that can automatically segment muscle, subcutaneous fat, and visceral fat by selecting the L3 region from the CT image. Also, to evaluate the performance of the model, internal verification was performed by calculating the intersection over union (IOU) of the partitioned area, and the results of external verification using data from other hospitals are shown. Based on the verification results, we tried to review and supplement the problems and solutions.

      • KCI등재

        학습된 머신러닝의 표류 현상에 관한 고찰

        신병춘,차병래,차윤석,김채윤 (사)한국스마트미디어학회 2022 스마트미디어저널 Vol.11 No.7

        In the learned machine learning, the performance of machine learning degrades at the same time as drift occurs in terms of learning models and learning data over time. As a solution to this problem, I would like to propose the concept and evaluation method of ML drift to determine the re-learning period of machine learning. An XAI test and an XAI test of an apple image were performed according to strawberry and clarity. In the case of strawberries, the change in the XAI analysis of ML models according to the clarity value was insignificant, and in the case of XAI of apple image, apples normally classified objects and heat map areas, but in the case of apple flowers and buds, the results were insignificant compared to strawberries and apples. This is expected to be caused by the lack of learning images of apple flowers and buds, and more apple flowers and buds will be studied and tested in the future. 학습된 머신러닝은 시간 경과에 따른 학습 모델과 학습 데이터 측면의 표류 현상이 발생과 동시에 머신러닝의 성능이 퇴화하게 된다. 이를 해결하기 위한 방안으로 머신러닝의 재학습 시기를 결정하기 위한 ML 표류의 개념과 평가 방법을 제안하고자 한다. 딸기와 선명도에 따른 XAI 테스트 및 사과 이미지의 XAI 테스트를 진행하였다. 딸기의 경우 선명도 값에 따른 ML 모델의 XAI 분석의 변화는 미미하였으며 사과 이미지의 XAI의 경우 사과는 정상적으로 객체 분류 및 히트맵 영역을 표시하였으나 사과꽃 및 꽃봉오리의 경우 그 결과가 딸기나 사과에 비해 미미하였다. 이는 사과꽃 및 꽃봉오리의 학습 이미지 수가 부족하기에 발생한 것으로 예상되며 추후 더 많은 사과꽃 및 꽃봉오리 이미지를 학습하여 테스트할 계획이다.

      연관 검색어 추천

      이 검색어로 많이 본 자료

      활용도 높은 자료

      해외이동버튼