http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.
변환된 중국어를 복사하여 사용하시면 됩니다.
곽재혁 ( Jae-hyuck Kwak ) 한국정보처리학회 2022 한국정보처리학회 학술대회논문집 Vol.29 No.2
PIM은 CPU와 메모리 간의 데이터 버스 오버헤드를 완화하기 위해서 메모리 내부에 프로세서를 가지며 낮은 데이터 재사용성을 가지는 데이터 집약형 워크로드에서 지연과 에너지 관점에서 장점을 가진다. 본 논문은 UPMEM사의 PIM을 이용하여 HPC분야에서 자주 사용되는 행렬 연산인 GEMV, SpMV의 벤치마크 구현을 분석하고 성능 분석을 통해 CPU 대비 가지는 장단점에 대해서 논하였다.
곽재혁(Jae-Hyuck Kwak),윤준원(Junweon Yoon),정용환(Yonghwan Jung),함재균(Jaegyoon Hahm),박동인(Dongin Park) 한국정보과학회 2011 정보과학회 컴퓨팅의 실제 논문지 Vol.17 No.11
; ;과학 응용 분야에서 데이터 집약형 컴퓨팅 (data-intensive computing)이 점차적으로 주목받으면서 대규모의 데이터를 빠른 시간 내에 효율적으로 처리해야 할 필요성으로 인해 클라우드 컴퓨팅이 주목받고 있다. 하둡(Hadoop)은 대규모 데이터 처리 분석을 위한 소프트웨어 프레임워크를 제공하며 클라우드 컴퓨팅의 대표적인 기술로 서 널리 사용되고 있다. 특히 하둡은 높은 확장성과 성능을 제공하면서 결함 탐지와 자동 복구 기능이 우수하여 과학 기술 분야에서도 점차적으로 도입되어 활용되고 있다. ; ;본 논문에서는 하둡을 이용하여 천문 응용 분야에서 생성되는 대규모 데이터를 분석하기 위한 방법을 제안하였다. 본 논문에서 관심을 가지는 천문 응용 데이터는 Super-WASP프로젝트에서 생성되는 대략 천만 개의 작은 크기의 관측 데이터를 처리해야 하는데 하둡은 대규모 데이터 처리에 특화되어 있어서 많은 개수의 작은 크기를 가지는 관측 데이터 처리에는 적합하지 않다. 본 논문에서는 천문 응용 데이터 처리를 위한 입출력 파일을 하둡에서 제공하는 특수화된 데이터 구조를 이용하여 압축하였고 천문 응용 실행 코드가 하둡에서 실행 가능하도록 맵리듀스 직업으로 랩핑하여 구현하였다. Data-intensive computing being highly regarded in science application area cloud computing has engaged public attention due to the necessity of efficiently processing large-scale data as soon as possible Hadoop provides software framework for large-scale data processing and analysis and is widely adopted and used as the representative technology of cloud computing. Especially roviding high-scalability and performance and getting an excellence in fault-tolerence and auto-matic recovery functionalities Hadoop is gradually used in scientific communities. In this paper we propose a Hadoop-based method to analyse large-scale data generated from astroinformatics research area. astroinformatics data we are dealing with are generated from Super WASP project which need to process about ten million of small-sized observation data However Hadoop is specialized in large-scale data analysis and it is not suitable for many small-sized astroinformatics data. In this paper we packed many small-sized astroinformatics data into large-sized ones using the specialized data structure of Hadoop and implemented MapReduce wrapper program to execute astroinformatics analysis code on Hadoop.
Performance Co-Pilot, Bpftrace, Grafana 기반 슈퍼컴퓨터 모니터링 및 성능 분석 시스템 구축 방안 연구
곽재혁 ( Jae-hyuck Kwak ) 한국정보처리학회 2021 한국정보처리학회 학술대회논문집 Vol.28 No.2
슈퍼컴퓨터는 수백~수천 노드의 컴퓨팅 자원이 연결되어 복잡한 계산이나 대규모 데이터를 병렬 처리하며 일부 노드에서 발생하는 예상치 못한 문제는 전체적인 시스템 성능 저하로 이어질 수 있기 때문에 슈퍼컴퓨터 모니터링과 성능 분석은 슈퍼컴퓨터를 구축하고 운영하는데 필수적인 요소로 볼 수 있다. 본 논문에서는 오픈소스 소프트웨어인 Performance Co-Pilot, Bpftrace, Grafana를 활용한 슈퍼컴퓨터 모니터링 및 성능분석 시스템 구축 방안을 제안하였으며 이를 통해서 확장가능하면서도 유연한 구조의 슈퍼컴퓨터 모니터링 및 성능 분석이 가능함을 보였다.
곽재혁(Kwak, Jae-Hyuck),정광영(Cheon, Seong-Sik),전성식(Jung, Kwang-Young) 한국산학기술학회 2010 한국산학기술학회 학술대회 Vol.- No.-
본 논문에서는 무인정찰기 카메라의 진동에 대한 해석을 동역학 해석 프로그램 ADAMS를 통하여 수행하였다. 정찰시 카메라에 진동이 발생할 경우 시선 불안정화에 의해 정확한 촬영이 불가하다. 이에 진동을 감소시키기 위한 방진구의 최적화를 위하여 정적 처짐량 및 비행기의 운행에 따른 진동에 대한 해석으로 sine sweep, RMS white noise에 대한 해석을 수행하고자 한다.
러스터 파일 시스템 기반 하둡 맵리듀스 실행 환경 구현 및 성능 분석
곽재혁(Jae-Hyuck Kwak),김상완(Sangwan Kim),허태상(Taesang Huh),황순욱(Soonwook Hwang) 한국정보과학회 2015 정보과학회 컴퓨팅의 실제 논문지 Vol.21 No.8
하둡은 오픈소스 기반의 분산 데이터 처리 프레임워크로서 과학 및 상용 분야에서 널리 사용되고 있는데 최근에 대규모 데이터의 실시간 처리 및 분석을 위해 고성능 컴퓨팅(HPC) 기술을 활용하여 하둡을 고성능화하기 위한 연구가 시도되고 있다. 본 논문에서는 하둡의 기본 파일시스템 구현인 하둡 분산파일시스템(HDFS)을 고성능 병렬 분산파일시스템인 러스터 파일시스템으로 대체하여 사용할 수 있도록 하둡 파일시스템 라이브러리를 확장하여 구현하였고 하둡이 제공하는 표준 벤치마크 도구를 사용하여 성능을 분석하였다. 실험 결과 러스터 파일시스템 기반으로 하둡 맵리듀스 응용을 수행하는 경우에 2-13배의 성능 향상이 있음을 확인할 수 있었다. Hadoop is becoming widely adopted in scientific and commercial areas as an open-source distributed data processing framework. Recently, for real-time processing and analysis of data, an attempt to apply high-performance computing technologies to Hadoop is being made. In this paper, we have expanded the Hadoop Filesystem library to support Lustre, which is a popular high-performance parallel distributed filesystem, and implemented the Hadoop MapReduce execution environment over the Lustre filesystem. We analysed Hadoop MapReduce over Lustre by using Hadoop standard benchmark tools. We found that Hadoop MapReduce over Lustre execution has a performance 2-13 times better than a typical Hadoop MapReduce execution.
Lustre 병렬파일시스템 오토 프로비저닝을 위한 Ambari 서비스 설계에 관한 연구
곽재혁 ( Jae-hyuck Kwak ),김상완 ( Sangwan Kim ),변은규 ( Eunkyu Byun ),남덕윤 ( Dukyun Nam ) 한국정보처리학회 2017 한국정보처리학회 학술대회논문집 Vol.24 No.2
하둡은 대표적인 빅데이터 처리 프레임워크로 널리 사용되고 있지만 하둡 어플리케이션은 고성능컴퓨팅 환경에서 하둡 분산파일시스템이 아닌 러스터 병렬 파일시스템 위에서도 수행될 수 있다. 그러나 이를 위해서 추가적으로 러스터 병렬파일시스템을 구축하고 관리하는 것은 시간 소모적인 업무가 될 수 있다. 본 연구는 러스터 병렬파일시스템의 오토 프로비저닝을 위한 암바리 서비스의 설계 방안에 대해서 제안한다. 암바리는 하둡 클러스터의 프로비저닝, 관리, 모니터링을 위한 운영 관리 프레임워크이며 운영자의 필요에 따라서 확장할 수 있는 서비스 프레임워크를 제공한다. 본 연구에서는 암바리를 통해서 러스터 병렬파일시스템을 오토 프로비저닝하고 관리하기 위한 확장 서비스를 설계하였으며 서비스를 위한 컴포넌트와 각 컴포넌트별 중요한 기능 사항에 대해서 논하였다.
곽재혁 ( Jae-hyuck Kwak ),오광진 ( Kwang Jin Oh ) 한국정보처리학회 2023 한국정보처리학회 학술대회논문집 Vol.30 No.2
폰노이만 구조를 따르는 기존의 컴퓨터 시스템은 프로세서와 메모리의 역할이 구분되어 있으며 프로세서는 메모리에 저장된 명령어와 데이터를 불러와 실행한다. 이 과정에서 메모리와 프로세서 간에 발생하는 데이터 이동은 메모리 집약적인 응용을 처리하는데 있어서 심각한 오버헤드를 야기할수 있다. PIM(Processing-In-Memory)은 데이터 이동 병목을 해결하기 위해서 메모리에 프로세서의 능력을 통합하는 기술로서 최근의 메모리 기술의 발전으로 주목받고 있다. 본 논문에서는 UPMEM사의 상용 PIM 제품을 기반으로 몬테카를로 방법을 이용한 원주율 추정을 구현하고 성능 확장성을 분석하였다.
곽재혁(Jae-Hyuck Kwak),이필우(Pillwoo Lee) 한국콘텐츠학회 2007 한국콘텐츠학회 종합학술대회 논문집 Vol.5 No.2_1
WLCG/EGEE 프로젝트는 응용 연구자들에게 지역적으로 분산된 컴퓨팅 그리드 인프라스트럭쳐를 제공하는 것을 목적으로 한다. 현재, WLCG/EGEE 인프라스트럭쳐는 40여개국 200여개 사이트의 2만여 개의 CPU 자원과 약 3PB의 디스크 자원을 제공하는 세계 최대의 그리드 인프라스트럭쳐로서 고에너지 물리학 분야의 초강입자 가속기 실험을 포함하여 9개 응용 연구 분야에서 활용되고 있다. 본 논문에서는 EGEE-Ⅱ 프로젝트와의 국제 협력의 결과로서 추진된 WLCG/EGEE 티어-2의 설계 및 구축에 대해서 설명한다. WLCG/EGEE project has a main goal of providing application scientists with access to a geographically distributed computing Grid infrastructure. Currently, WLCG/EGEE infrastructure is the world's largest Grid infrastructure, providing over 20,000 CPUs and about 3 PB disk at 200 international sites and used by over 9 application domains including LHC experiments from high-energy physics. This paper addresses the design and construction of WLCG/EGEE tier-2 propelled by international collaboration with EGEE-Ⅱ project.