http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.
변환된 중국어를 복사하여 사용하시면 됩니다.
당뇨병성 망막증 예후를 위해 스킵 연결 기법을 사용하는 3중 심층 네트워크를 이용한 바이모달 학습
김기영,Cam-Hao Hua,배성호,이승룡,유승영 한국통신학회 2020 정보와 통신 Vol.37 No.9
당뇨병성 망막증(Diabetic Retinopathy, DR)은 시력 장애와 실명의 주요한 원인으로, 질병의 단계를 정확하게 평가할 수 있다면 안과 방문 일정과 후속 치료 계획을 효과적으로 수립하여 안과검진과 치료에 있어 비용 절약이 가능하다. 기존 연구들은 전자 의무 기록(Electronic Medical Records, EMR)의 속성 값만을 참조하여 전통적인 기계학습 방법을 사용해 DR 평가를 위한 인자를 획득하며, 이러한 방법은 DR에 중요한 영향을 끼치는 위험 인자를 식별하는데 있어 많은 노력이 필요하다. 이를 줄이고자 본고에서는 안저 사진을 이용하여 DR 위험 진행 상태를 식별하는 심층 바이모달 학습 기반의 Tri-SDN (Trilogy of Skip-connection Deep Networks)를 제안한다. Tri-SDN은 안저 사진과 EMR 속성의 기준 및 경과 데이터 간의 관계를 철저하게 파악할 수 있다. 본 연구에서는 96명의 당뇨병 환자를 대상으로 실험을 진행한 결과 기존의 방법보다 노력과 시간이 감소하면서도 탐지 능력은 향상되어 정확도 90.6%, 민감도 96.5%, 정밀도 88.7%, 특이도 82.1%, 그리고 수신자 조작 특성 아래 영역(Area Under Receiver Operating Characteristics, AUROC)에서 88.8%를 나타내었다.
Huynh-The, Thien,Hua, Cam-Hao,Anh Tu, Nguyen,Hur, Taeho,Bang, Jaehun,Kim, Dohyeong,Amin, Muhammad Bilal,Kang, Byeong Ho,Seung, Hyonwoo,Shin, Soo-Yong,Kim, Eun-Soo,Lee, Sungyoung Elsevier science 2018 Information sciences Vol.444 No.-
<P><B>Abstract</B></P> <P>Despite impressive achievements in image processing and artificial intelligence in the past decade, understanding video-based action remains a challenge. However, the intensive development of 3D computer vision in recent years has brought more potential research opportunities in pose-based action detection and recognition. Thanks to the advantages of depth camera devices like the Microsoft Kinect sensor, we developed an effective approach to in-depth analysis of indoor actions using skeleton information, in which skeleton-based feature extraction and topic model-based learning are two major contributions. Geometric features, i.e. joint distance, joint angle, and joint-plane distance are calculated in the spatio-temporal dimension. These features are merged into two types, called pose and transition features, and then are provided to codebook construction to convert sparse features into visual words by <I>k</I>-means clustering. An efficient hierarchical model is developed to describe the full correlation of feature - poselet - action based on Pachinko Allocation Model. This model has the potential to uncover more hidden poselets, which have been recognized as the valuable information and help to differentiate pose-sharing actions. The experimental results on several well-known datasets, such as MSR Action 3D, MSR Daily Activity 3D, Florence 3D Action, UTKinect-Action 3D, and NTU RGB+D Action Recognition, demonstrate the high recognition accuracy of the proposed method. Our method outperforms state-of-the-art methods in the field in most dataset benchmarks.</P> <P><B>Highlights</B></P> <P> <UL> <LI> 3D action recognition approach using topic modeling technique. </LI> <LI> Pose and transition feature for object posture and movement representation. </LI> <LI> A flexible hierarchical topic model to learn feature-poselet-action correlation. </LI> <LI> Method sensitivity evaluation on five well-known 3D action recognition datasets. </LI> <LI> Accuracy improvement to other existing methods which only use 3D skeleton data. </LI> </UL> </P>
얼굴 표정 인식을 위한 Densely Backward Attention 기반 컨볼루션 네트워크
서현석 ( Hyun-seok Seo ),( Cam-hao Hua ),이승룡 ( Sung-young Lee ) 한국정보처리학회 2019 한국정보처리학회 학술대회논문집 Vol.26 No.2
Convolutional neural network(CNN)의 등장으로 얼굴 표현 인식 연구는 많은 발전을 이루었다. 그러나, 기존의 CNN 접근법은 미리 학습된 훈련모델에서 Multiple-level 의 의미적 맥락을 포함하지 않는 Attention-embedded 문제가 발생한다. 사람의 얼굴 감정은 다양한 근육의 움직임과 결합에 기초하여 관찰되며, CNN 에서 딥 레이어의 산출물로 나온 특징들의 결합은 많은 서브샘플링 단계를 통해서 class 구별와 같은 의미 정보의 손실이 일어나기 때문에 전이 학습을 통한 올바른 훈련 모델 생성이 어렵다는 단점이 있다. 따라서, 본 논문은 Backbone 네트워크의 Multi-level 특성에서 Channel-wise Attention 통합 및 의미 정보를 포함하여 높은 인식 성능을 달성하는 Densely Backwarnd Attention(DBA) CNN 방법을 제안한다. 제안하는 기법은 High-level 기능에서 채널 간 시멘틱 정보를 활용하여 세분화된 시멘틱 정보를 Low-level 버전에서 다시 재조정한다. 그런 다음, 중요한 얼굴 표정의 묘사를 분명하게 포함시키기 위해서 multi-level 데이터를 통합하는 단계를 추가로 실행한다. 실험을 통해, 제안된 접근방법이 정확도 79.37%를 달성 하여 제안 기술이 효율성이 있음을 증명하였다.
Selective bit embedding scheme for robust blind color image watermarking
Huynh-The, Thien,Hua, Cam-Hao,Tu, Nguyen Anh,Hur, Taeho,Bang, Jaehun,Kim, Dohyeong,Amin, Muhammad Bilal,Ho Kang, Byeong,Seung, Hyonwoo,Lee, Sungyoung Elsevier 2018 Information sciences Vol.426 No.-
<P>In this paper, we propose a novel robust blind color image watermarking method, namely SMLE, that allows to embed a gray-scale image as watermark into a host color image in the wavelet domain. After decomposing the gray-scale watermark to component binary images in digits ordering from least significant bit (LSB) to most significant bit (MSB), the retrieved binary bits are then embedded into wavelet blocks of two optimal color channels by using an efficient quantization technique, where the wavelet coefficient difference in each block is quantized to either two pre-defined thresholds for corresponding 0-bits and 1-bits. To optimize the watermark imperceptibility, we equally split the coefficient modified quantity on two middle-frequency sub-bands instead of only one as in existing approaches. The improvement of embedding rule increases approximately 3 dB of watermarked image quality. An adequate trade-off between robustness and imperceptibility is controlled by a factor representing the embedding strength. As for extraction process, we exploit 2D Otsu algorithm for higher accuracy of watermark detection than that of 1D Otsu. Experimental results prove the robustness of our SMLE watermarking model against common image processing operations along with its efficient retention of the imperceptibility of the watermark in the host image. Compared to state-of-the-art methods, our approach outperforms in most of robustness tests at a same high payload capacity. (C) 2017 Elsevier Inc. All rights reserved.</P>