http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.
변환된 중국어를 복사하여 사용하시면 됩니다.
멀티모달 멀티채널 딥러닝을 이용한 자기공명영상에서의 간세포암 미세혈관 침범 예측: 영상의학 지표를 중심으로
Junseo Kang,Sangrae Kim,Hyunho Shin,Namjoon Kim,Won Jae Lee,Ji Hye Min 대한전자공학회 2022 대한전자공학회 학술대회 Vol.2022 No.11
미세혈관침범(MVI)은 간세포암 환자의 생존율과 재발률을 결정하는 중요한 예후인자 중 하나이다. 따라서 MVI의 존재 여부를 탐지하는 것은 병리학적으로 매우 중요하다. MVI는 주로 영상학적 이미지를 보고 진단하는데, 숙련된 의사조차도 탐지하기 어렵고 의사마다 진단 결과가 다를 때도 있다. 이에 딥러닝 모델을 활용해 MVI를 효과적으로 탐지하는 방법들이 개발되었다. 그러나 기존에 제안된 모델들은 적은 데이터에서 인공지능이 자동으로 추출한 특징에만 의존하는 한계점이 존재한다. 본 연구자들은 실제 임상에서 쓰이는 4가지 특징을 직접 추출해 데이터셋 한계의 극복을 꾀하였다. 그 결과 완성된 새로운 모델은 최대 0.65의 F1 score를 달성했다. 그러나 데이터 전처리 과정에서의 손실, 의료영상에 특화된 사전학습 모델의 부재로 인한 한계를 체감했고, 향후 연구에선 특화된 사전학습 모델 개발과 준지도학습(SSL) 도입을 통해 극복할 것이다. Microvascular invasion (MVI) is one of the most significant prognostic factors for hepatocellular carcinoma (HCC), especially for survival and recurrence. Thus, detecting MVI is a crucial task in cancer treatment. MVI detection, which mainly requires medical images, is a challenging task for even specialists, and the result is sometimes disputable. Deep learning models for MVI detection have been proposed to solve this issue. However, previous models depend on only the auto-generated features with small datasets. In this study, we manually extracted four pre-defined features to overcome the limitation. As a result, our final model achieved a 0.65 F1 score. We recognized the limitations of the loss in the data preprocessing process and the absence of a pre-trained model specialized in medical images. Therefore, in future studies, we will improve the model performance by using self-supervised learning (SSL) and a new pre-trained model specialized to medical images.
Choi, Junseo,Farshchian, Bahador,Kim, Jinsoo,Park, Sunggook American Scientific Publishers 2013 Journal of Nanoscience and Nanotechnology Vol.13 No.6
<P>Artificial membranes with perforated nanopores in defined locations provide an important biomimicking platform for sensing and analysis of biomolecules. This study presents a simple and flexible method to fabricate a freestanding polymer membrane with perforated micro- and nanopores using a combination of nanoimprint lithography (NIL) and pressed self-perfection (PSP) process. NIL was used to define initial pores of a few micrometers in diameter in the SU-8 membrane layer, which was followed by the PSP process where the patterned SU-8 membrane is pressed with a blank silicon wafer at an elevated temperature. This PSP process results in a lateral flow of the SU-8 resist and consequently reduces the pore size in the membrane. With this method, we have demonstrated fabrication of a SU-8 membrane with perforated pores down to approximately 300 nm in diameter. The results indicate that by employing a pore reduction process nanopore membranes can be manufactured without requirements of having a stamp with nanoscale structures and high aspect ratio imprinting with the stamp.</P>
작물 3차원 복원을 위한 최적의 카메라 보정 패턴 분석
권준서 ( Junseo Kwon ),김수빈 ( Subin Kim ),김수명 ( Soo Myeong Kim ),양명균 ( Myongkyoon Yang ) 한국농업기계학회 2022 한국농업기계학회 학술발표논문집 Vol.27 No.2
4차 산업혁명에 따른 과학 기술의 발전으로 스마트 팜에 대한 연구가 활발히 이루어지고 있다. 고품질 작물의 생산을 위해 작물의 생리, 형태, 특성을 관찰하고 해석하는 표현형의 중요성이 대두되었고, 다양한 분석을 가능하게 하는 3차원 영상에 대한 활용도 증가하고 있다. 정확한 표현형 분석을 위해서는 높은 정확도의 3차원 복원이 필요하다. 3차원 복원을 할 때 카메라는 대상의 특징점 파악이 중요한데, 작물의 경우 특징을 파악할 요소가 부족하다는 문제를 가지고 있다. 그래서 특징점 파악에 도움을 주는 보정 패턴이 활용된다. 현재 복원 기술에 대한 연구는 많이 진행되고 있지만, 보정 패턴에 대한 연구는 부족한 상황이다. 이에 본 연구는 작물의 3차원 복원에 대하여 효과적인 보정 패턴의 조건을 파악하기 위해 실험을 진행하였다. 턴테이블 위에 3차원 복원 대상을 놓고 보정 패턴에 차이를 두어 데이터를 획득한 뒤, 복원 결과에 대하여 비교 및 분석을 수행하였다. 실험 과정에서 보정 패턴을 제외한 배경, 카메라 위치와 같은 요소는 동일하게 하였다. 같은 모양의 보정 패턴, 다른 모양의 보정 패턴 두 종류의 보정 패턴을 다양하게 구성하여 촬영 및 3차원 복원을 진행하였다. 실험 결과, 3차원 복원에 있어서 보정을 위한 요소들의 모양과 개수에 따른 차이를 확인하였으며, 최적의 조건을 파악할 수 있었다. 본 연구의 결과는 특징점이 적은 작물의 고차원적인 분석을 위해 더 나은 3차원 복원 결과를 제시할 수 있었으며 이에 따라 고차원 표현형 분석에 활용될 수 있을 것으로 기대된다.
조준서(Junseo Jo),이영주(Youngjoo Lee) 대한전자공학회 2020 대한전자공학회 학술대회 Vol.2020 No.8
This paper presents several pruning methods to optimize the capsule network, which generally requires an excessive amount of computational costs compared to the conventional convolutional neural network. In order to realize the cost—effective but accurate solution, we newly introduce an advanced pruning technique dedicated to the capsule network architecture, handling only the length of capsule vectors while preserving its direction. Experimental results show that the proposed method allows to prune the given capsule network aggressively while maintaining the recognition accuracy compared to the naïve pruning approach.