http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.
변환된 중국어를 복사하여 사용하시면 됩니다.
딥러닝 YOLOv5 객체 인식을 이용한 반려동물 품종 분류 방법에 대한 연구
박태주(Tae-Ju Park),송특섭(Teuk-Seob Song) 한국정보통신학회 2023 한국정보통신학회논문지 Vol.27 No.4
이세돌과 알파고의 바둑경기 이후 딥러닝에 대한 관심이 폭발적으로 증가하였다. 현재는 챗GPT를 비롯하여 딥러닝의 많은 기술이 우리 생활 속에 깊이 들어와 있고 연구자 뿐만 아니라 일반인도 딥러닝을 사용할 만큼 많은 분야에 응용되고 있다. 딥러닝은 CNN, YOLO 등 많은 모델이 발표 되고 있다. 특히, YOLO는 이미지를 사용한 객체 인식분야에 우수한 성능을 보이고 있어서 불량품인식, 쓰레기분리, 몰고기 인식 등 다양한 분야에 응용되고 있다. 일반적으로 딥러닝의 객체 인식은 많은 양의 데이터를 사용하여 학습한다. 본 연구는 반려동물을 대상으로 적은 수의 데이터를 학습한 후 인식방법에 대해 연구하였다. YOLO는 IoU를 기본으로 동작하기 때문에 반려동물 인식에 적합한 IoU를 설정하여 인식하는 방법을 제안하였다. After the Go match between Sedol Lee and AlphaGo, interest in deep learning exploded. Recently, many technologies of deep learning, including ChatGPT, are deeply embedded in our lives, and not only researchers but also the general public are using deep learning in many fields. In deep learning, many models such as CNN and YOLO are being introduced in these days. In particular, YOLO shows excellent performance in the object recognition field using images, so it is applied to various fields such as defective product recognition, garbage separation, and driving meat recognition. In general, object recognition in deep learning is learned using a large amount of data. This study studied the recognition method after learning a more smaller number of data than previous works for companion animals. Since YOLO operates based on IoU, we proposed a recognition method by setting IoU suitable for companion animal recognition.
Bounding Box CutMix와 표준화 거리 기반의 IoU를 통한 재활용품 탐지
이해진,정희철,Lee, Haejin,Jung, Heechul 대한임베디드공학회 2022 대한임베디드공학회논문지 Vol.17 No.5
In this paper, we developed a deep learning-based recyclable object detection model. The model is developed based on YOLOv5 that is a one-stage detector. The deep learning model detects and classifies the recyclable object into 7 categories: paper, carton, can, glass, pet, plastic, and vinyl. We propose two methods for recyclable object detection models to solve problems during training. Bounding Box CutMix solved the no-objects training images problem of Mosaic, a data augmentation used in YOLOv5. Standardized Distance-based IoU replaced DIoU using a normalization factor that is not affected by the center point distance of the bounding boxes. The recyclable object detection model showed a final mAP performance of 0.91978 with Bounding Box CutMix and 0.91149 with Standardized Distance-based IoU.
Hellinger 거리 IoU와 Objectron 적용을 기반으로 하는 객체 감지
김용길,문경일 한국인터넷방송통신학회 2022 한국인터넷방송통신학회 논문지 Vol.22 No.2
Although 2D Object detection has been largely improved in the past years with the advance of deep learning methods and the use of large labeled image datasets, 3D object detection from 2D imagery is a challenging problem in a variety of applications such as robotics, due to the lack of data and diversity of appearances and shapes of objects within a category. Google has just announced the launch of Objectron that has a novel data pipeline using mobile augmented reality session data. However, it also is corresponding to 2D-driven 3D object detection technique. This study explores more mature 2D object detection method, and applies its 2D projection to Objectron 3D lifting system. Most object detection methods use bounding boxes to encode and represent the object shape and location. In this work, we explore a stochastic representation of object regions using Gaussian distributions. We also present a similarity measure for the Gaussian distributions based on the Hellinger Distance, which can be viewed as a stochastic Intersection-over-Union. Our experimental results show that the proposed Gaussian representations are closer to annotated segmentation masks in available datasets. Thus, less accuracy problem that is one of several limitations of Objectron can be relaxed. 2D 객체 감지 시스템은 최근 몇 년 동안 심층 신경망과 대규모 이미지 데이터세트의 사용으로 크게 개선되었지만, 아직도 범주 내에서 데이터 부족, 다양한 외관 및 객체 형상 때문에 자율 탐색 등과 같은 로봇 공학과 관련된 응용에서 2D 물체 감지 시스템은 적절하지 않다. 최근에 소개되고 있는 구글 Objectron 또한 증강 현실 세션 데이터를 사용하는 새로운 데이터 파이프라인이라는 점에서 도약이라 할 수 있지만, 3D 공간에서 2D 객체 이해라는 측면에서 마찬가지로 한계가 있다. 이에 본 연구에서는 더 성숙한 2D 물체 감지 방법을 Objectron에 도입하는 3D 물체 감지 시스템을나타낸다. 대부분의 객체 감지 방법은 경계 상자를 사용하여 객체 모양과 위치를 인코딩한다. 본 작업에서는 가우스 분포를 사용하여 객체 영역의 확률적 표현을 탐색하는데, 일종의 확률적 IoU라 할 수 있는 Hellinger 거리를 기반으로 하는가우스 분포에 대한 유사성 측도를 제시한다. 이러한 2D 표현은 모든 객체 감지기에 원활하게 통합할 수 있으며, 실험결과 데이터 집합에서 주석이 달린 분할 영역에 더 가까워서 Objectron의 단점이라 할 수 있는 3D 감지 정확도를 높일수 있다.
임승균(Seunggyun Lim),강동수(Dongsu Kang) 한국정보과학회 2021 정보과학회 컴퓨팅의 실제 논문지 Vol.27 No.12
인공지능 딥러닝 기술이 적용된 무기체계가 지속적으로 개발된다. 기존의 전차 피아식별 시스템은 사람의 눈으로 표적을 획득하고 공격 여부를 판단한다. 따라서 신속성과 정확성 측면에서 한계가 존재한다. 본 연구에서는 이러한 제한사항을 개선하기 위해 YOLO(You Only Look Once) 알고리즘 기반의 전차 국적 식별 방법을 제안한다. 먼저, 한국, 미국, 일본, 북한의 4개국의 주력 전차 사진을 수집한다. 특히, 실제 기갑 전투의 상황과 유사하도록 노이즈를 추가하고 이미지 전처리 작업을 한다. 이후 데이터셋은 학습 데이터의 적절한 규모를 확인하기 위해 8개의 그룹으로 구성한다. 마지막으로 평가 척도인 mAP와 IoU를 기반으로 적절한 데이터 규모를 분석한다. Advanced weapon systems with artificial intelligence deep learning technology will be continuously. The existing identification system of friend or foe on tank targets with human eyes determine whether to attack. Therefore, there are limitations in terms of speed and accuracy. In this paper, we propose a YOLO(You Only Look Once) Algorithm-based tank nationality identification method to improve these limitations. First, we collect photos of the main tank from four countries South Korea, the United States, Japan and North Korea. In particular, similar to the actual armored battle, we add noise and do image preprocessing. Afterward, the dataset organized into eight groups to check the appropriate size of the learning data. Finally, we analyze the appropriate data size based on the evaluation scales, mAP and IoU.
강윤정(Yunjeong Kang),김태양(TaeYang Kim),조완현(Wanhyun Cho),나명환(Myung Hwan Na) 한국자료분석학회 2021 Journal of the Korean Data Analysis Society Vol.23 No.6
가축의 무게를 측정하는 과정은 매우 어려운 작업이고 가축들에게 많은 스트레스가 유발하게 되어 이들의 성장에 저해 요인으로 작용한다. 만약에 가축 영상을 통해서 가축의 무게를 자동으로 확인할 수 있다면 이러한 문제를 해결할 수 있을 뿐만 아니라 가축들의 급이량 조절이나 건강 상태 파악에 많은 도움을 줄 수 있다. 따라서, 본 연구는 한우 무게를 자동으로 측정하기 위해서 3D 영상으로부터 한우를 분할할 수 있는 여러 가지 분할 방법을 고찰하였다. 먼저, 이 연구에서 활용된 데이터는 강원도 원주에 소재하는 축산농가에서 Intel RealSense Depth Camera(D455)를 활용하여 수집하였으며, 학습을 위한 라벨링 값으로 개체별로 계근대를 이용하여 한우의 무게를 측정하였다. 두 번째로, 우리는 색상 특성(HSV), 깊이 특성(Depth), 그리고 GrabCut 알고리즘을 기반으로 한우 영상 속의 몸체와 배경을 자동으로 분할할 수 있는 방법을 제안하였다. 세 번째로, 이들 분할 방법들의 성능을 비교하기 위하여 IoU(Intersection over Union) 측도를 활용하였다. 실험 결과로부터, 우리는 GrabCut 알고리즘과 깊이 정보를 결합한 객체 분할 방법이 다른 방법들에 비교해서 가장 높은 IoU 측도를 보임으로써 이것이 가장 우수한 분할 방법임으로 확인하였다. The process of measuring the weight of livestock is a very difficult task and causes a lot of stress on the livestock, which acts as a hindrance to their growth. If it is possible to automatically check the weight of livestock through livestock images, this problem can be solved, and it can help a lot in controlling the amount of feed or understanding the health status of the livestock. Therefore, this study considered various segmentation methods that can segment Korean cattle from 3D images in order to automatically measure the weight of Korean cattle. First, the data used in this study were collected by using Intel RealSense Depth Camera (D455) at a livestock farm in Wonju, Gangwon-do, and the weight of Korean cattle was measured by using a weighbridge for each individual. Second, we proposed a method for automatically segmenting the body and background of Korean cattle images based on color characteristics (HSV), depth characteristics (Depth), and the GrabCut algorithm. Third, an Intersection over Union (IoU) measure was used to compare the performance of these partitioning methods. From the experimental results, we confirmed that the object segmentation method combining the GrabCut algorithm and depth information is the best segmentation method as it shows the highest IoU measure compared to other methods.
신병춘,차병래,차윤석,김채윤 (사)한국스마트미디어학회 2022 스마트미디어저널 Vol.11 No.7
In the learned machine learning, the performance of machine learning degrades at the same time as drift occurs in terms of learning models and learning data over time. As a solution to this problem, I would like to propose the concept and evaluation method of ML drift to determine the re-learning period of machine learning. An XAI test and an XAI test of an apple image were performed according to strawberry and clarity. In the case of strawberries, the change in the XAI analysis of ML models according to the clarity value was insignificant, and in the case of XAI of apple image, apples normally classified objects and heat map areas, but in the case of apple flowers and buds, the results were insignificant compared to strawberries and apples. This is expected to be caused by the lack of learning images of apple flowers and buds, and more apple flowers and buds will be studied and tested in the future. 학습된 머신러닝은 시간 경과에 따른 학습 모델과 학습 데이터 측면의 표류 현상이 발생과 동시에 머신러닝의 성능이 퇴화하게 된다. 이를 해결하기 위한 방안으로 머신러닝의 재학습 시기를 결정하기 위한 ML 표류의 개념과 평가 방법을 제안하고자 한다. 딸기와 선명도에 따른 XAI 테스트 및 사과 이미지의 XAI 테스트를 진행하였다. 딸기의 경우 선명도 값에 따른 ML 모델의 XAI 분석의 변화는 미미하였으며 사과 이미지의 XAI의 경우 사과는 정상적으로 객체 분류 및 히트맵 영역을 표시하였으나 사과꽃 및 꽃봉오리의 경우 그 결과가 딸기나 사과에 비해 미미하였다. 이는 사과꽃 및 꽃봉오리의 학습 이미지 수가 부족하기에 발생한 것으로 예상되며 추후 더 많은 사과꽃 및 꽃봉오리 이미지를 학습하여 테스트할 계획이다.
CT 영상 기반 근감소증 진단을 위한 AI 영상분할 모델 개발 및 검증
이충섭 ( Lee Chung-sub ),임동욱 ( Lim Dong-wook ),노시형 ( Noh Si-hyeong ),김태훈 ( Kim Tae-hoon ),고유선 ( Ko Yousun ),김경원 ( Kim Kyung Won ),정창원 ( Jeong Chang-won ) 한국정보처리학회 2023 정보처리학회논문지. 컴퓨터 및 통신시스템 Vol.12 No.3
Sarcopenia is not well known enough to be classified as a disease in 2021 in Korea, but it is recognized as a social problem in developed countries that have entered an aging society. The diagnosis of sarcopenia follows the international standard guidelines presented by the European Working Group for Sarcopenia in Older People (EWGSOP) and the d Asian Working Group for Sarcopenia (AWGS). Recently, it is recommended to evaluate muscle function by using physical performance evaluation, walking speed measurement, and standing test in addition to absolute muscle mass as a diagnostic method. As a representative method for measuring muscle mass, the body composition analysis method using DEXA has been formally implemented in clinical practice. In addition, various studies for measuring muscle mass using abdominal images of MRI or CT are being actively conducted. In this paper, we develop an AI image segmentation model based on abdominal images of CT with a relatively short imaging time for the diagnosis of sarcopenia and describe the multicenter validation. We developed an artificial intelligence model using U-Net that can automatically segment muscle, subcutaneous fat, and visceral fat by selecting the L3 region from the CT image. Also, to evaluate the performance of the model, internal verification was performed by calculating the intersection over union (IOU) of the partitioned area, and the results of external verification using data from other hospitals are shown. Based on the verification results, we tried to review and supplement the problems and solutions.
Fast Visual Tracking with Squeeze and Excitation Region Proposal Network
Cao Dun,Dai Renhua,Wang Jin,Ji Baofeng,Alfarraj Osama,Tolba Amr,Sharma Pradip Kumar,Zhu Min 한국컴퓨터산업협회 2023 Human-centric Computing and Information Sciences Vol.13 No.-
Siamese trackers have achieved significant progress over the past few years. However, the existing methods are either high speed or high performance, and it is difficult for previous Siamese trackers to balance both. In this work, we propose a high-performance yet effective tracker (SiamSERPN), which utilizes MobileNetV2 as the backbone and equips with the proposed squeeze and excitation region proposal network (SERPN). For the SERPN block, we introduce the distance-IoU (DIoU) into the classification and regression branches to remedy the weakness of traditional RPN. Benefiting from the structure of MobileNetV2, we propose a feature aggregation architecture of multi-SERPN blocks to improve performance further. Extensive experiments and comparisons on visual tracking benchmarks, including VOT2016, VOT2018, and GOT-10k, demonstrate that our SiamSERPN can balance speed and performance. Especially on GOT-10k benchmark, our tracker scores 0.604 while running at 75 frames per second (FPS), which is nearly 27 times that of the state-of-the-art tracker.