http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.
변환된 중국어를 복사하여 사용하시면 됩니다.
Ni 촉매층의 두께가 탄소나노튜브의 성장 형태에 미치는 영향
김정태,박용섭,김형진,최은창,홍병유,Kim, Jung-Tae,Park, Yong-Seob,Kim, Hyung-Jin,Choi, Eun-Chang,Hong, Byung-You 한국진공학회 2007 Applied Science and Convergence Technology Vol.16 No.2
본 연구에서는 탄소나노튜브의 성장특성을 결정짓는 여러 요소 중 한가지인 촉매층 두께의 변화에 따라서 형성되어지는 탄소 나노튜브의 형태 변화를 관찰하였다. Ni 촉매층은 마그네트론 스퍼터링법을 이용하여 증착하였으며, Ni 촉매층의 두께는 $20{\sim}80\;nm$의 범위에서 설정하였다. 두께에 따른 Ni 촉매층 기판을 hot-filament 플라즈마 화학기상 증착(HF-PECVD) 장치를 이용하여 탄소나노튜브를 합성하였으며, 성장되어진 탄소나노튜브의 성분분석은 에너지 분산형 X-선 측정기(EDS)를 통해 분석하였고, 고배율 투과전자현미경(HRTEM) 분석과 전계방사 주사전자현미경(FESEM) 분석을 통해 성장된 탄소나노튜브 성장 형태를 관찰하였다. 그 결과로써, 고배율 투과전자현미경(TEM) 분석을 통해서는 탄소나노튜브는 내부가 비어있으며, 다중벽으로 구성되어 있는 것을 관찰하였고, 탄소나노튜브 상부에 니켈 금속이 포함된 것을 확인하였다. 이것은 분산형 X-선 측정을 통해 탄소나노튜브의 구성성분이 접착층인 Ti, 촉매층인 Ni 그리고 탄소(C)로 이루어졌음을 다시한번 확인하였으며. 성장형태에서도 알 수 있듯이 탄소나노튜브 성장 전에 행해여지는 전처리는 촉매층의 입자를 변화시키고 변화된 촉매층의 표면은 다른 형태의 탄소나노튜브를 성장시킴을 알 수 있었다. 결과적으로, 40 mn의 촉매층을 지니는 기판에서 가장 좋은 형태를 나타내는 탄소 탄소나노튜브가 성장되었음을 알 수 있다. In this study, we observed the shapes of CNTs formed with the thinckness of catalyst. Catalyst layer was grown by magnetron sputtering method and the thickness of Ni catalyst is the range from 20 to 80 nm. Also, the synthesis of CNT with Ni catalyst thickness was grown by hot-filament PECVD method. And, we investigated the composition of CNTs by using EDS measurement, also observed the shapes of CNTs by using HRTEM and FESEM measurements. In the result, through the TEM analysis, we observed the empty inside of CNTs and the multiwall CNTs, also confirmed the tip of CNT containing Ni. The composition of CNTs are consisted of an element of C, Ti, and Ni. As you shown the growth shapes of CNTs, the pretreatment of the catalyst before te growth of CNTs changed the particle size of the catalysts and grown the CNTs of the different shapes. Consequently, the best vertically alined and well-arranged CNTs exhibited from the substrate deposited at the catalyst thickness of 40 nm.
세그먼트 아키텍처 방법을 적용한 한국교육학술정보원 ITA 도입 방안 연구
박형용(Hyeong Yong Park),한창오(Chang Oh Han),김세훈(Seo Hoon Kim),김형진(Hyoung Jin Kim) 한국IT서비스학회 2008 한국IT서비스학회지 Vol.7 No.4
The KERIS having a central role in education information has selected IT Architecture as a means to provide high quality service for customers; based on this, it intends to lay the groundwork for general information projects to come and perform the IT Governance, the management system for information system. The KERIS set up a mid- and long-term road map in order to introduce and utilize ITA and has been preparing for the introduction of architecture to a proper business sector using architecture approaches by segments(sectors) since 2005. This study presented several cases which organizations can refer to when they introduce architecture while promoting an architecture project; and the details were discussed as follows.ition stage, but planned decision-making will take over when it is proven to be effective with information searching.
2.5차원 다중뷰 기반 특징 및 데이터 확장을 통한 간유리음영 결절의 다중클래스 분류
이선영(Seon Young Lee),정주립(Julip Jung),홍헬렌(Helen Hong),송용섭(Yong Sub Song),김형진(Hyungjin Kim),박창민(Chang Min Park) 한국정보과학회 2018 정보과학회 컴퓨팅의 실제 논문지 Vol.24 No.10
간유리음영 결절은 내부 고형 성분의 포함 여부 및 크기에 따라 악성도가 달라지기 때문에 고형 성분의 크기에 따른 혼합 간유리음영 결절과 순수 간유리음영 결절을 구분하는 것이 중요하다. 그러나 고형 성분의 크기가 작은 혼합 간유리음영 결절은 순수 간유리음영 결절과 유사하게 나타나 구분이 어렵다. 본 논문에서는 다중뷰-슬랩 관심영역 기반 특징 및 데이터 확장을 통한 간유리음영 결절의 분류 방법을 제안한다. 첫째, 분류기의 훈련 데이터 수를 늘리고 과적합을 피하기 위해 데이터 확장을 수행한다. 둘째, 간유리음영 결절로부터 네 종류의 관심 영역을 생성한다. 셋째, 각 관심영역으로부터 고형 성분의 특성을 반영하는 특징을 추출하고 의미 있는 특징을 선별한다. 넷째, 랜덤 포레스트를 이용해 간유리음영 결절을 분류한다. 2.5차원 다중뷰-슬랩 관심영역을 이용한 분류 정확도는 84.05%로 3차원 관심영역과 2.5차원 다중뷰 관심영역을 이용한 정확도보다 각각 6.27%, 4.44% 높았다. Differentiation between part-solid ground-glass nodules (GGNs) with a variable sized solid component from pure GGNs is important because the malignancy rate of GGN is different according to the presence and size of solid components in chest CT images. However, because of their similar appearance, it is difficult to distinguish between part-solid GGN and pure GGN when the part-solid GGN includes small solid components. In this paper, we propose a multi-class classification method for GGN using multiview-slab region of interest (ROI)-based features and data augmentation. First, data augmentation is performed to enlarge the training dataset of the classifier and to avoid the overfitting problem. Second, four ROIs are generated from a GGN. Third, features that reflect the characteristics of the solid component are extracted from each ROI, and significant features are selected for classification. Finally, GGNs are classified using the random forest (RF). In the experiments, the classification accuracy with 2.5-dimensional multiview-slab ROI was 84.05%, which was 6.27% and 4.44% higher than the classification accuracy with 3-dimensional ROI and 2.5-dimensional ROI, respectively.
흉부 CT 영상에서 결절의 밝기값, 재질 및 형상 증강 영상 기반의 GGN-Net을 이용한 간유리음영 결절 자동 분류
변소현(So Hyun Byun),정주립(Julip Jung),홍헬렌(Helen Hong),송용섭(Yong Sub Song),김형진(Hyungjin Kim),박창민(Chang Min Park) 한국컴퓨터그래픽스학회 2018 컴퓨터그래픽스학회논문지 Vol.24 No.5
본 논문에서는 흉부 CT 영상에서 결절의 밝기값, 재질 및 형상 증강 영상 기반의 GGN-Net을 이용해 간유리음영 결절 자동 분류 방법을 제안한다, 첫째, 입력 영상에 결절 내부의 고형 성분의 유무 및 크기 정보가 포함될 수 있도록 밝기값, 재질 및 형상 증강 영상의 활용을 제안한다. 둘째, 다양한 입력 영상을 여러 개의 컨볼루션 모듈을 통해 획득한 특징맵을 내부 네트워크에서 통합하여 훈련하는 GGN-Net를 제안한다. 제안 방법의 분류 정확성 평가를 위해 순수 간유리음영 결절 90개와 고형 성분의 크기가 5mm 미만인 혼합 간유리음영 결절 38개, 5mm 이상 고형 성분의 크기를 가지는 혼합 간유리음영 결절 23개의 데이터를 사용하였으며, 입력 영상이 간유리음영 결절 분류 결과에 미치는 영향을 비교하기 위해 다양한 입력 영상을 구성하여 결과를 비교하였다. 실험 결과, 밝기값, 재질 및 형상 정보가 함께 고려된 입력 영상을 사용한 제안 방법이 정확도가 82.75%로 가장 좋은 결과를 보였다. In this paper, we propose an automated method for the ground-glass nodule(GGN) classification using GGN-Net based on intensity, texture, and shape-enhanced images in chest CT images. First, we propose the utilization of image that enhances the intensity, texture, and shape information so that the input image includes the presence and size information of the solid component in GGN. Second, we propose GGN-Net which integrates and trains feature maps obtained from various input images through multiple convolution modules on the internal network. To evaluate the classification accuracy of the proposed method, we used 90 pure GGNs, 38 part-solid GGNs less than 5mm with solid component, and 23 part-solid GGNs larger than 5mm with solid component. To evaluate the effect of input image, various input image set is composed and classification results were compared. The results showed that the proposed method using the composition of intensity, texture and shape-enhanced images showed the best result with 82.75% accuracy.