RISS 학술연구정보서비스

검색
다국어 입력

http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.

변환된 중국어를 복사하여 사용하시면 됩니다.

예시)
  • 中文 을 입력하시려면 zhongwen을 입력하시고 space를누르시면됩니다.
  • 北京 을 입력하시려면 beijing을 입력하시고 space를 누르시면 됩니다.
닫기
    인기검색어 순위 펼치기

    RISS 인기검색어

      검색결과 좁혀 보기

      선택해제
      • 좁혀본 항목 보기순서

        • 원문유무
        • 음성지원유무
        • 원문제공처
          펼치기
        • 등재정보
          펼치기
        • 학술지명
          펼치기
        • 주제분류
          펼치기
        • 발행연도
          펼치기
        • 작성언어
        • 저자
          펼치기

      오늘 본 자료

      • 오늘 본 자료가 없습니다.
      더보기
      • 무료
      • 기관 내 무료
      • 유료
      • KCI등재

        이질적 고성능 클라우드 컴퓨팅을 위한 확장형 OpenStack의 개발 및 평가

        최동훈,조희승,박기웅 한국차세대컴퓨팅학회 2016 한국차세대컴퓨팅학회 논문지 Vol.12 No.3

        GPU는 저비용 고효율의 프로세서로 각광을 받고 있으며, 이질적 고성능 컴퓨팅 시스템의 주계산 자원으로 채택되고 있다. 본 논문에서는 GPU 기반의 고성능 클라우드 컴퓨팅을 위해 개발된 확장형 OpenStack을 서술한다. 확장형 OpenStack은 OpenStack에서 GPU 사용이 가능한 가상 머신의 생성 및 관리가 가능하도록, 가상 머신 간의GPU 공유 스케줄러와 GPU 인지형 Nova 스케줄러를 제공한다. 확장형 OpenStack과 Rodinia 벤치마크를 이용한 실험에서 GPU 가상화로 인한 오버헤드가 2%내에 불과함을 보여주고 있다. 이것은 OpenStack이 이질적 고성능 클라우드 컴퓨팅에도 성공적으로 적용 가능함을 의미한다. GPU's are getting the spotlight in the chip processor market due to low power consumption and high efficiency, and increasingly adopted as a main computing resource in heterogeneous high performance computing systems. This paper describes OpenStack extension for heterogeneous high performance computing on the cloud. The extended features are a coarse-grained GPU scheduler and a GPU-aware Nova scheduler developed for creating and managing GPU-enabled virtual machines with OpenStack. The experiments by using Rodinia benchmark on OpenStack extension shows that the overhead due to GPU virtualization is within 2%. This means that OpenStack is successfully applicable to the heterogeneous high-performance cloud computing.

      • KCI등재

        CPU-GPU환경에서 효율적인 메인메모리 접근을 위한 융합 프로세서 구조 개발

        박현문(Hyun-Moon Park),권진산(Jin-San Kwon),황태호(Tae-Ho Hwang),김동순(Dong-Sun Kim) 한국전자통신학회 2016 한국전자통신학회 논문지 Vol.11 No.2

        이기종시스템 구조(HSA)는 두 유닛의 각각에 메모리 폴(pools)이 가상메모리를 통해 공유할 수 있게 됨에 따라 CPU와 GPU 아키텍처의 오랜 문제를 해결하였다. 그러나 물리적 실제 시스템에서는 가상메모리 처리를 위해 GPU와 GPU 사이의 빈번한 메모리 이동으로 병목현상(Bottleneck)과 일관성 요청(Coherence request)의 오버헤드를 갖게 된다. 본 연구는 CPU와 GPU간의 효율적인 메인 메모리 접근방안으로 퓨전프로세서 알고리즘을 제안하였다. CPU가 요청한 처리할 메모리 영역을 GPU의 코어에 맞게 분배·제어해주는 기능으로 작업관리자(Job Manager)와 Re-mapper, Pre-fetcher를 제안하였다. 이를 통해 CPU와 GPU간의 빈번한 메시지도 감소되고 CPU의 메모리주소에 없는 Page-Table 요청이 낮아져 두 매체간의 효율성이 증대되었다. 제안한 알고리즘의 검증 방안으로 QEMU(:short for Quick EMUlator)기반의 에뮬레이터를 개발하고 CUDA(:Compute Unified Device. Architecture), OpenMP, OpenCL 등의 알고리즘과 비교평가를 하였다. 성능평가 결과, 본 연구에서 제안한 융합 프로세서 구조를 기존과 비교했을 때 최대 198%이상 빠르게 처리되면서 메모리 복사, 캐시미스 등의 오버헤드를 최소화하였다. The HSA resolves an old problem with existing CPU and GPU architectures by allowing both units to directly access each other's memory pools via unified virtual memory. In a physically realized system, however, frequent data exchanges between CPU and GPU for a virtual memory block result bottlenecks and coherence request overheads. In this paper, we propose Fusion Processor Architecture for efficient access of main memory from both CPU and GPU. It consists of Job Manager, Re-mapper, and Pre-fetcher to control, organize, and distribute work loads and working areas for GPU cores. These components help on reducing memory exchanges between the two processors and improving overall efficiency by eliminating faulty page table requests. To verify proposed algorithm architectures, we develop an emulator based on QEMU, and compare several architectures such as CUDA(Compute Unified Device Architecture), OpenMP, OpenCL. As a result, Proposed fusion processor architectures show 198% faster than others by removing unnecessary memory copies and cache-miss overheads.

      • KCI등재후보

        GPU를 활용한 고성능 컴퓨팅 : 금융 파생 상품 모델링 케이스

        전진홍,홍석원,이명호,배종우 한국차세대컴퓨팅학회 2009 한국차세대컴퓨팅학회 논문지 Vol.5 No.1

        최신 GPU의 구조는 주요한 각 그래픽 연산별로 특화된 유닛을 사용하는 스트림 아키텍처를 넘어서서 여러 개의 동일한 Programmable한 유닛들의 집적화를 통해 범용 연산의 실행이 용이한 형태로 발전하고 있다. 또한 이전의 GPU에서 연산을 수행하기 위해 그래픽에 특화된 API를 사용하던 환경 대신, 최신의 GPU에서는 프로그래머가 보다 직접적으로 GPU를 제어할 수 있고 사용이 편한 소프트웨어 환경들이 개발되고 있다. 이러한 하드웨어와 소프트웨어의 발전은 GPU를 활용한 범용 컴퓨팅(GPGPU)을 보편화 시키고 있다. 이러한 추세에 맞추어 본 논문에서는 최신의 GPU와 소프트웨어 개발 환경을 활용하여 계산 요구량이 높은 금융파생 상품 모델링 응용 프로그램을 병렬화하고, 성능을 최적화하는 연구를 수행한다. 또한 GPU의 성능 측정 결과를 CPU만 사용하는 경우와 비교하여 분석한 결과를 제시한다. 실험 결과 GPU를 활용한 경우 190배 이상의 큰 성능 향상을 얻을 수 있었다. The architecture of the latest GPU has surpassed the previous application-specific stream architecture. Thishas led to an architecture consisting of a number of uniform programmable units integrated on the same chipwhich facilitate the general-purpose computing beyond the graphic processing. With the multipleprogrammable units executing in parallel, the latest GPU shows superior performance. Furthermore,programmers can have a direct control on the GPU pipeline using easy-to-use parallel programmingenvironments, whereas they had to rely on specific graphics API’s in the past. These advances in hardwareand software make General-Purpose GPU (GPGPU) computing widespread. In this paper, using the latestGPU and its software environment, we parallelize a computationally demanding financial application andoptimize its performance. We also analyze the performance results compared with those obtained using CPUonly. Experimental results show that GPU can achieve a superior performance, grater than 190x, comparedwith the CPU-only case.

      • KCI등재

        CPU-GPU 이기종 플랫폼에서 하둡 맵리듀스의 가속

        이새한슬(Sae-han-seul Yi),이영민(Youngmin Yi) 한국정보과학회 2014 정보과학회 컴퓨팅의 실제 논문지 Vol.20 No.6

        빅데이터 시대가 도래함에 따라 하둡 맵리듀스와 같은 응용이 널리 사용되고 있다. 한편, 최근 GPGPU가 보편화되면서, 다양한 분야의 응용들이 GPU를 이용하여 가속되고 있다. 본 논문은 하둡 맵리 듀스에서 GPU를 사용하는 방법을 제안하고, CPU와 GPU가 모두 포함되는 이기종 서버로 구성된 분산환경에서 최적의 데이터 처리 속도를 얻기 위해, CPU와 GPU에 각각 할당되는 맵 태스크들에 대한 정적분할 및 동적 스케줄링에 대한 기법을 제안하였다. 노드마다 12개의 CPU 코어와 1개의 GPU가 장착된 14-노드 클러스터 환경에서 하둡 맵리듀스로 CKY 파서 응용을 수행하여, CPU 코어 1개만 사용한 단일 서버에서의 수행시간 대비 245배 가속을 하였고, 노드별로 GPU를 사용하지 않고 CPU 코어 12개만 활용하는 동일 하둡 클러스터에서의 수행시간 대비 2.5배 가속을 하였다. 또한 제안하는 기법으로 CPU 코어 12개와 GPU를 모두 사용하는 하둡 클러스터 수행시간 대비 총 2.8배 가속이 되었다. These days, big data computing is prevalent and Hadoop MapReduce framework is widely used for its simple programming model. On the other hand, General-Purpose Graphics Processing Unit (GPGPU) has become very popular and various domains of applications have been successfully accelerated using GPUs. In this paper, we propose a method to use GPU within Hadoop MapReduce framework. Then, we propose a static partitioning method that considers different capability of CPU mappers and GPU mappers, and a dynamic scheduling method that deals with a dynamic input size. Compared to a single CPU execution time, the CKY parser on a 14-node Hadoop cluster with 12 CPU cores and 1 GPU per node achieves 245 times speedup. Compared to the execution time on a 14-node Hadoop cluster with 12 CPU cores and no GPU per node, it also achieves 2.5 times speedup. Our proposed approach for both CPU and GPU mapper execution leads to an additional speedup, resulting in total of 2.8 times speedup.

      • KCI등재

        클라우드 환경에서 GPU 연산으로 인한 가상머신의 성능 저하를 완화하는 GPGPU 작업 관리 기법

        강지훈 ( Jihun Kang ),길준민 ( Joon-min Gil ) 한국정보처리학회 2020 정보처리학회논문지. 컴퓨터 및 통신시스템 Vol.9 No.9

        최근 클라우드 환경에서는 고성능 연산이 가능한 GPU(Graphics Processing Unit) 장치를 가상머신에게 적용한 GPU 클라우드 컴퓨팅 기술이 많이 사용되고 있다. 클라우드 환경에서 가상머신에게 할당된 GPU 장치는 대규모 병렬 처리를 통해 CPU보다 더 빠르게 연산을 수행할 수 있으며, 이로 인해 다양한 분야의 고성능 컴퓨팅 서비스들을 클라우드 환경에서 운용할 때 많은 이점을 얻을 수 있다. 클라우드 환경에서 GPU 장치는 가상머신의 성능 향상에 많은 도움을 주지만 가상머신의 CPU 사용 시간을 기반으로 작동하는 가상머신 스케줄러에서는 GPU 장치의 사용 시간이 고려되지 않아 다른 가상머신들의 성능에 영향을 미친다. 본 논문에서는 클라우드 환경에서 가상머신에게 GPU를 할당할 때 많이 사용되는 직접통로기반 GPU 가상화 환경에서 GPGPU(General-Purpose computing on Graphics Processing Units) 작업을 수행하는 가상머신으로 인한 다른 가상머신들의 성능 저하 현상을 검증하고 분석하며, 이를 해결하기 위한 가상머신의 GPGPU 작업 관리 기법을 제안한다. Recently, GPU cloud computing technology applying GPU(Graphics Processing Unit) devices to virtual machines is widely used in the cloud environment. In a cloud environment, GPU devices assigned to virtual machines can perform operations faster than CPUs through massively parallel processing, which can provide many benefits when operating high-performance computing services in a variety of fields in a cloud environment. In a cloud environment, a GPU device can help improve the performance of a virtual machine, but the virtual machine scheduler, which is based on the CPU usage time of a virtual machine, does not take into account GPU device usage time, affecting the performance of other virtual machines. In this paper, we test and analyze the performance degradation of other virtual machines due to the virtual machine that performs GPGPU(General-Purpose computing on Graphics Processing Units) task in the direct path based GPU virtualization environment, which is often used when assigning GPUs to virtual machines in cloud environments. Then to solve this problem, we propose a GPGPU task management method for a virtual machine.

      • KCI등재

        GPU를 공유하는 컨테이너 환경에서 GPU 작업의 동시 실행을 위한 GPU 자원 경쟁 관리기법

        강지훈,Kang, Jihun 한국정보처리학회 2022 정보처리학회논문지. 컴퓨터 및 통신시스템 Vol.11 No.10

        컨테이너 기반 클라우드 환경은 다수의 컨테이너가 GPU(Graphic Processing Unit)를 공유할 수 있으며, GPU 공유는 GPU 자원의 유휴 시간을 최소화하고 자원 사용률을 향상할 수 있다. 하지만, GPU는 전통적으로 클라우드 환경에서 CPU, 메모리와는 다르게 컴퓨팅 자원을 논리적으로 다중화하고 사용자에게 자원 일부를 격리된 형태로 제공할 수 없다. 또한, 컨테이너는 GPU 작업을 실행할 때만 GPU 자원을 점유하며, 각 컨테이너의 GPU 작업 실행 시점이나 작업 규모를 미리 알 수 없기 때문에 자원 사용량 또한 미리 알 수 없다. 컨테이너가 GPU 자원을 임의의 시점에 제한없이 사용한다는 특징은 다수의 컨테이너가 GPU 작업을 동시에 실행하는 환경에서 자원 경쟁 상태 관리를 매우 어렵게 만들며, GPU 작업은 대부분 GPU 내부에서 블랙박스 형태로 처리되기 때문에 GPU 작업이 실행된 이후에는 GPU 자원 경쟁을 방지하는데 제한적이다. 본 논문에서는 다수의 컨테이너가 GPU 작업을 동시에 실행할 때 자원 경쟁으로 인해 발생하는 성능 저하를 방지하기 위한 컨테이너 관리기법을 제안한다. 또한, 본 논문에서는 실험을 통해 다수의 컨테이너가 GPU 작업을 동시에 실행할 때 자원 경쟁으로 인한 성능 저하 문제를 분석하고 제안하는 컨테이너 관리기법의 효율성을 증명한다. In a container-based cloud environment, multiple containers can share a graphical processing unit (GPU), and GPU sharing can minimize idle time of GPU resources and improve resource utilization. However, in a cloud environment, GPUs, unlike CPU or memory, cannot logically multiplex computing resources to provide users with some of the resources in an isolated form. In addition, containers occupy GPU resources only when performing GPU operations, and resource usage is also unknown because the timing or size of each container's GPU operations is not known in advance. Containers unrestricted use of GPU resources at any given point in time makes managing resource contention very difficult owing to where multiple containers run GPU tasks simultaneously, and GPU tasks are handled in black box form inside the GPU. In this paper, we propose a container management technique to prevent performance degradation caused by resource competition when multiple containers execute GPU tasks simultaneously. Also, this paper demonstrates the efficiency of container management techniques that analyze and propose the problem of degradation due to resource competition when multiple containers execute GPU tasks simultaneously through experiments.

      • GPU 클러스터 내부 코어 개수에 따른 범용 계산 효율성 분석

        손동오,김종면,김철홍 한국공학안전보건예술학회 2015 한국공학예술학회 논문지 Vol.7 No.1

        컴퓨터 성능이 점차 향상됨에 따라 사용자의 요구사항 또한 점차적으로 높아지고 있다. 최근에는 GPU의 여유로운 자원 이나 강력한 계산능력을 그래픽 작업뿐만 아니라 다양한 분야에 활용하기 위한 GPGPU (General-Purpose computing on Graphics Processing Units) 개발이 많은 관심을 받고 있다. 본 논문에서는 GPU 클러스터에 할당된 코어 개수를 다양하게 변경하여 GPU 코어 개수에 따른 GPGPU 성능을 분석하였다. 실험결과, 대부분의 벤치마크 프로그램에서는 GPU 코어 증 가에 따라 연산 자원의 증가로 인한 성능이 증가하지만, 특정 벤치마크 프로그램에서는 GPU 코어 증가에 따라 성능 감소 가 발생한다. 분석결과, GPU 코어 증가에 따라 성능이 감소하는 벤치마크 프로그램은 GPU 코어 개수가 증가에 따른 연산 자원 증가 이점을 잘 활용하지 못하며, 오히려 메모리 충돌에 따른 성능 감소가 큰 것으로 분석된다. 본 연구의 결과를 활 용한다면 GPGPU구조의 병렬성 향상을 위한 기초 연구에 활용 될 것으로 예상된다. Recently, GPGPU (General-Purpose computing on Graphics Processing Units) draws quite attention, since it can provide powerful computing capability of the GPU in executing general-purpose applications as well as graphics applications. Many studies utilizing parallel processing power of the GPU have been proposed in order to improve the performance of recent microprocessors. The GPGPU structure to take advantage of highly parallel processing capability can satisfy the performance requirements to the GPU. In this paper, we analyze the efficiency of the GPGPU varying the number of cores assigned to the GPU cluster. Simulation results show that the performance improves as the number of cores on the GPU cluster increases. However, in some benchmarks, the performance decreases as the number of cores on the GPU cluster increases, due to memory conflicts.

      • KCI등재

        이기종 다중 CPU 코어 및 GPU 시스템에서 하드웨어 인터럽트를 고려한 CPU/GPU 스케쥴링 기법

        유서환,황선준,박하연,최진,이창건 한국정보과학회 2023 정보과학회 컴퓨팅의 실제 논문지 Vol.29 No.1

        많은 양을 처리하는 GPU 워크로드를 CPU 자원에 최적화하여 스케쥴링이 되지 않으면, CPU 또는 메모리 사용률에 직접적인 영향을 주게 된다. 이로 인하여, 전력 소모 증가 및 전체 시스템 성능 감소를 초래할 수 있어서 스케쥴링 최적화가 필요하다. 본 논문은 다중 CPU 코어, 단일 GPU 아키텍쳐에서 GPU로부터 발생되는 하드웨어 인터럽트의 영향성을 고려하여 스케쥴링하는 방법을 다룬다. CPU는 GPU로부터 발생되는 하드웨어 인터럽트를 처리하기 위하여 GPU 워크로드 수행을 지연시키기 때문에, 하드웨어 인터럽트는 GPU 성능을 저하하는 요인이 된다. 본 논문에서는 하드웨어 인터럽트를 처리하는 CPU 코어와 GPU 워크로드를 처리하는 CPU 코어를 분리하여 GPU 워크로드 처리 성능을 증가시키는 방법을 제안한다.

      • KCI등재

        GPU 성능 저하 해결을 위한 내부 자원 활용/비활용 상태 분석

        최홍준(Hongjun Choi),손동오(Dongoh Son),김종면(Jongmyon Kim),김철홍(Cheolhong Kim) 한국콘텐츠학회 2015 한국콘텐츠학회논문지 Vol.15 No.7

        최신 고성능 컴퓨팅 시스템에서는, 대용량 병렬 연산을 효과적으로 처리할 수 있는 GPU의 우수한 연산성능을 그래픽 처리 이외의 범용 작업에 활용하는 GPGPU 기술에 관한 연구가 활발하게 진행 중이다. 하지만 범용 응용프로그램의 특성이 GPU 구조에 최적화되어 있지 않기 때문에 범용 프로그램 수행 시 GPGPU는 GPU의 연산 자원을 효과적으로 활용하지 못하고 있다. 그러므로 본 논문에서는 GPGPU 기술을 사용하는 컴퓨팅 시스템의 성능을 보다 향상시킬 수 있는 GPU 연구에 대한 방향을 제시하고자 한다. 이를 위하여, 본 논문에서는 GPU 성능 저하 원인 분석을 수행한다. GPU 성능 저하 원인을 보다 명확하게 분류하고자 본 논문에서는 GPU 코어의 상태를 완전 활성화 상태, 불완전 활성화 상태, 유휴 상태, 메모리스톨 상태, 그리고 GPU 코어 스톨 상태 등 5가지로 정의하였다. 완전 활성화 상태를 제외한 모든 GPU 코어 상태들은 컴퓨팅 시스템의 성능 저하를 유발한다. 본 논문에서 성능 저하 원인을 찾고자 벤치마크 프로그램의 특성에 따라 각 GPU 코어 상태의 비율 변화를 측정하였다. 분석 결과에 따르면, 불완전 활성화 상태, 유휴 상태, 메모리 스톨 상태 그리고 GPU 코어 스톨 상태는 연산 자원 활용률 저하, 낮은 프로그램 병렬성, 높은 메모리 요청, 그리고 구조적 해저드에 의해 각각 유발된다. In recent high performance computing system, GPGPU has been widely used to process general-purpose applications as well as graphics applications, since GPU can provide optimized computational resources for massive parallel processing. Unfortunately, GPGPU doesn’t exploit computational resources on GPU in executing general-purpose applications fully, because the applications cannot be optimized to GPU architecture. Therefore, we provide GPU research guideline to improve the performance of computing systems using GPGPU. To accomplish this, we analyze the negative factors on GPU performance. In this paper, in order to clearly classify the cause of the negative factors on GPU performance, GPU core status are defined into 5 status: fully active status, partial active status, idle status, memory stall status and GPU core stall status. All status except fully active status cause performance degradation. We evaluate the ratio of each GPU core status depending on the characteristics of benchmarks to find specific reasons which degrade the performance of GPU. According to our simulation results, partial active status, idle status, memory stall status and GPU core stall status are induced by computational resource underutilization problem, low parallelism, high memory requests, and structural hazard, respectively.

      • KCI등재

        도시기상모델 CFD_NIMR의 GP-GPU 실행을 위한 병렬 프로그램의 구현

        김영태 ( Youngtae Kim ),박혜자 ( Hyeja Park ),최영진 ( Young-jeen Choi ) 한국인터넷정보학회 2014 인터넷정보학회논문지 Vol.15 No.2

        본 논문은 도시기상모델인 전산유체역학모델(CFD_NIMR)을 GP-GPU에서 실행시키기 위해 CUDA Fortran 병렬프로그램을 구현하였다. GP-GPU는 원래 PCI 카드 형태의 그래픽 처리 장치이지만 저비용, 저전력으로 대량의 계산을 초고속으로 수행할 수 있는 일반 계산 가속기이다. 모델을 단일 Intel XEON 2.0 GHz CPU에서 실행한 결과와 Nvidia Tesla C1060 GPU에서 실행한 성능을 비교하였을 때 GP-GPU에서 15배 정도의 빠른 속도를 보였다. 또한 다중 CPU를 사용한 MPI 병렬프로그램과 비교한 경우에도 GP-GPU에서 보다 더 효율적인 성능을 보였다. 본 논문에서 제시한 프로그램 방식은 유사한 구조를 가진 수치모델을 GP-GPU 병렬 프로그램으로 구현 하는데 쉽게 적용할 수 있을 것으로 기대한다. In this paper, we implemented a CUDA Fortran parallel program to run the CFD_NIMR model on GP-GPU`s, which simulates air diffusion on urban terrains. A GP-GPU is graphic processing unit in the form of a PCI card, and a general calculation accelerator to perform a large amount of high speed calculations with low cost and electric power. The GP-GPU gives performance enhancement of speed by 15 times to compare the Nvidia Tesla C1060 GPU with Intel XEON 2.0 GHz CPU. In addition, the program on a GP-GPU shows efficient performance compared to an MPI parallel program on multiple CPU`s. It is expected that a proposed programming method on the GP-GPU parallel program can be used for numerical models with a similar structure.

      연관 검색어 추천

      이 검색어로 많이 본 자료

      활용도 높은 자료

      해외이동버튼