http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.
변환된 중국어를 복사하여 사용하시면 됩니다.
GPU를 공유하는 컨테이너 환경에서 GPU 작업의 동시 실행을 위한 GPU 자원 경쟁 관리기법
강지훈,Kang, Jihun 한국정보처리학회 2022 정보처리학회논문지. 컴퓨터 및 통신시스템 Vol.11 No.10
컨테이너 기반 클라우드 환경은 다수의 컨테이너가 GPU(Graphic Processing Unit)를 공유할 수 있으며, GPU 공유는 GPU 자원의 유휴 시간을 최소화하고 자원 사용률을 향상할 수 있다. 하지만, GPU는 전통적으로 클라우드 환경에서 CPU, 메모리와는 다르게 컴퓨팅 자원을 논리적으로 다중화하고 사용자에게 자원 일부를 격리된 형태로 제공할 수 없다. 또한, 컨테이너는 GPU 작업을 실행할 때만 GPU 자원을 점유하며, 각 컨테이너의 GPU 작업 실행 시점이나 작업 규모를 미리 알 수 없기 때문에 자원 사용량 또한 미리 알 수 없다. 컨테이너가 GPU 자원을 임의의 시점에 제한없이 사용한다는 특징은 다수의 컨테이너가 GPU 작업을 동시에 실행하는 환경에서 자원 경쟁 상태 관리를 매우 어렵게 만들며, GPU 작업은 대부분 GPU 내부에서 블랙박스 형태로 처리되기 때문에 GPU 작업이 실행된 이후에는 GPU 자원 경쟁을 방지하는데 제한적이다. 본 논문에서는 다수의 컨테이너가 GPU 작업을 동시에 실행할 때 자원 경쟁으로 인해 발생하는 성능 저하를 방지하기 위한 컨테이너 관리기법을 제안한다. 또한, 본 논문에서는 실험을 통해 다수의 컨테이너가 GPU 작업을 동시에 실행할 때 자원 경쟁으로 인한 성능 저하 문제를 분석하고 제안하는 컨테이너 관리기법의 효율성을 증명한다. In a container-based cloud environment, multiple containers can share a graphical processing unit (GPU), and GPU sharing can minimize idle time of GPU resources and improve resource utilization. However, in a cloud environment, GPUs, unlike CPU or memory, cannot logically multiplex computing resources to provide users with some of the resources in an isolated form. In addition, containers occupy GPU resources only when performing GPU operations, and resource usage is also unknown because the timing or size of each container's GPU operations is not known in advance. Containers unrestricted use of GPU resources at any given point in time makes managing resource contention very difficult owing to where multiple containers run GPU tasks simultaneously, and GPU tasks are handled in black box form inside the GPU. In this paper, we propose a container management technique to prevent performance degradation caused by resource competition when multiple containers execute GPU tasks simultaneously. Also, this paper demonstrates the efficiency of container management techniques that analyze and propose the problem of degradation due to resource competition when multiple containers execute GPU tasks simultaneously through experiments.
Gate-All-Around FET Inner Spacer 두께에 따른 Parasitic Capacitance 모델링
강지훈(Jihun Kang),김현곤(Hyeongon Kim),박하민(Hamin Park) 대한전자공학회 2023 대한전자공학회 학술대회 Vol.2023 No.11
According to the scaling of transistors, the impact of parasitic capacitance is continuously increasing. In the case of gate-all-around FET (GAAFET), various parasitic capacitance elements exist due to its complex three-dimensional structure. In this paper, we conducted modeling of extension capacitance (Cext) in GAAFET based on different inner spacer thickness (TIS). We extracted Cext of GAAFET using TCAD simulation and carried out Cext modeling using elliptical coordinates to the Cartesian system. To establish the model, we divided the distribution of electric fields composing Cext into three regions and ensured consistency between the models of changes in these three regions with TIS and TCAD simulation results. Finally, we analyzed the trend of C<SUB>ext</SUB> changes based on the TIS using the model.
가상화 환경에서 자원 사용량을 기반으로 하는 가상머신 유형분류 기법
강지훈 ( Jihun Kang ),박봉우 ( Bongwoo Bak ),이재학 ( Jaehak Lee ),이은영 ( Eunyoung Lee ) 한국정보처리학회 2018 한국정보처리학회 학술대회논문집 Vol.25 No.1
다수의 사용자가 자원을 공유하는 클라우드 센터에서는 자원 사용량 예측이 힘들기 때문에 지속적으로 가상머신의 자원 부족과 특정 물리 서버에 가상머신들이 집중되는 것을 방지하고자 클라우드 센터를 구성하는 다수의 물리 서버 사이에서 가상머신을 이주시키는 마이그레이션 작업을 수행한다. 가상머신 마이그레이션은 가상머신에게 할당된 자원의 규모에 따라 물리 서버에 가상머신을 균등하게 배치시킬 수 있지만 가상머신의 특정 자원에 따른 자원 집중 현상은 방지할 수 없다. 본 논문에서는 가상머신 마이그레이션 작업 시 자원 집중 현상을 방지하기 위한 기반 정보를 생성하는 가상머신 유형 분류 기법을 제안한다. 본 논문에서 제안하는 가상머신 유형분류 기법은 물리 서버에서 실행 중인 가상머신의 자원 사용 정보를 기반으로 CPU, 메모리 유형으로 분류하여 가상머신 마이그레이션을 수행할 때 사용할 수 있는 기반 정보를 제공한다. 또한 본 논문에서 제안한 기법은 실험을 통해 무시할 수 있는 수준의 오버헤드를 발생시키는 것을 확인하였다.
직접 통로 기반 GPU 가상화 환경에서 GPU 연산시간의 길이가 가상머신의 공평성에 미치는 영향 분석
강지훈 ( Jihun Kang ),유헌창 ( Heonchang Yu ),길준민 ( Joon-min Gil ) 한국정보처리학회 2017 한국정보처리학회 학술대회논문집 Vol.24 No.1
직접 통로(Direct Pass-through) 기반 GPU(Graphic Processing Unit) 가상화 기법은 클라우드 환경에서 가상머신에게 GPU 장치의 기능을 지원하기 위한 일반적인 방법 중 하나이다. GPU 장치는 GPGPU 기술을 통해 연산을 가속화 할 수 있기 때문에 클라우드 환경에서도 가상머신에 고성능 연산을 지원하기 위해 많이 사용되고 있다. 하지만 기존 가상머신 스케줄링 기법은 가상머신의 CPU 사용 시간을 기반으로 스케줄링 되며, GPU 자원 사용을 고려하지 않는다. 본 논문에서는 GPU와 CPU 연산을 수행하는 가상머신들이 동시에 실행되는 환경에서 성능 실험을 통해 가상머신의 GPU 연산이 다른 가상머신에게 미치는 성능 영향과 GPU 작업 길이가 다른 가상머신에게 미치는 영향을 분석한다.
GPU를 공유하는 컨테이너 기반 클라우드 환경에서 다수의 사용자를 위한 원격 VR 서비스의 성능 관리 기법
강지훈 ( Jihun Kang ) 한국정보처리학회 2022 정보처리학회논문지. 컴퓨터 및 통신시스템 Vol.11 No.1
Virtual Reality(VR) technology is an interface technology that is actively used in various audio-visual-based applications by showing users a virtual world composed of computer graphics. Since VR-based applications are graphic processing-based applications, expensive computing devices equipped with Graphics Processing Unit(GPU) are essential for graphic processing. This incurs a cost burden on VR application users for maintaining and managing computing devices, and as one of the solutions to this, a method of operating services in cloud environments is being used. This paper proposes a performance management technique to address the problem of performance interference between containers owing to GPU resource competition in container-based high-performance cloud environments in which multiple containers share a single GPU. The proposed technique reduces performance deviation due to performance interference, helping provide uniform performance-based remote VR services for users. In addition, this paper verifies the efficiency of the proposed technique through experiments.
데스크톱 그리드에서 자원 클러스터링을 이용한 작업 결과 검증에 관한 연구
강지훈 ( Jihun Kang ),송성진 ( Sungjin Song ),길준민 ( Joon-min Gil ) 한국정보처리학회 2015 한국정보처리학회 학술대회논문집 Vol.22 No.1
데스크톱 그리드에서는 휘발성과 이질성과 같은 동적 특성을 갖는 자원의 자율적인 수행에 의해 얻어진 작업 결과의 검중이 중요하다. 이를 위해, 본 논문에서는 자원의 동적 특성을 신뢰도와 결과반환 확률로 정의하고 k-means 클러스터링 알고리즘을 적 용하여 자원들을 자원 그룹으로 분류하고, 분류된 자원 그룹에 따라 작업의 복제수를 결정하는 자원 클러스터링 기반의 결과 검증 기법을 제안한다.
클라우드 환경에서 GPU 연산으로 인한 가상머신의 성능 저하를 완화하는 GPGPU 작업 관리 기법
강지훈 ( Jihun Kang ),길준민 ( Joon-min Gil ) 한국정보처리학회 2020 정보처리학회논문지. 컴퓨터 및 통신시스템 Vol.9 No.9
Recently, GPU cloud computing technology applying GPU(Graphics Processing Unit) devices to virtual machines is widely used in the cloud environment. In a cloud environment, GPU devices assigned to virtual machines can perform operations faster than CPUs through massively parallel processing, which can provide many benefits when operating high-performance computing services in a variety of fields in a cloud environment. In a cloud environment, a GPU device can help improve the performance of a virtual machine, but the virtual machine scheduler, which is based on the CPU usage time of a virtual machine, does not take into account GPU device usage time, affecting the performance of other virtual machines. In this paper, we test and analyze the performance degradation of other virtual machines due to the virtual machine that performs GPGPU(General-Purpose computing on Graphics Processing Units) task in the direct path based GPU virtualization environment, which is often used when assigning GPUs to virtual machines in cloud environments. Then to solve this problem, we propose a GPGPU task management method for a virtual machine.