http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.
변환된 중국어를 복사하여 사용하시면 됩니다.
비x86 플랫폼 상에서의 CUDA 컴퓨팅을 위한 QEMU 및 GPGPU-Sim 기반 시뮬레이션 프레임워크 개발
황재민(Jaemin Hwang),최종욱(Jong-Wook Choi),최성림(Seongrim Choi),남병규(Byeong-Gyu Nam) 한국산업정보학회 2014 한국산업정보학회논문지 Vol.19 No.2
본 논문에서는 QEMU와 GPGPU-Sim에 기반하여 비x86 플랫폼을 위한 CUDA 시뮬레이션 프레임워크를 제안한다. 기존 CPU-GPU 이종 컴퓨팅 시뮬레이터는 x86 CPU 모델만을 지원하거나 CUDA를 지원하지 않는 한계를 가진다. 제안된 시뮬레이터는 이러한 문제를 해결하기 위해 x86을 포함하여 비x86 CPU 모델을 지원 가능한 QEMU와 CUDA를 지원하는 GPU 시뮬레이터인 GPGPU-Sim을 통합하였다. 이를 통해 비x86 기반의 CUDA 컴퓨팅 환경을 시뮬레이션할 수 있도록 하였다. This paper proposes a CUDA simulation framework for non-x86 computing platforms based on QEMU and GPGPU-sim. Previous simulators for heterogeneous computing platforms did not support for non-x86 CPU models or CUDA computing platform. In this work, we combined the QEMU and the GPGPU-Sim to support the non-x86 CPU models and the CUDA platform, respectively. This approach provides a simulation framework for CUDA computing on non-x86 CPU models.
I/O 부하와 데이터 지역성을 고려한 데드라인 기반 맵리듀스 스케쥴링 기법
황재민(Jaemin Hwang),김천중(Cheonjung Kim),오현교(Hyunkyo Oh),임종태(Jongtae Lim),복경수(Kyoungsoo Bok),유재수(Jaesoo Yoo) 한국콘텐츠학회 2014 한국콘텐츠학회논문지 Vol.14 No.12
본 논문에서는 데드라인 내에 잡을 완료시키기 위한 맵리듀스 스케쥴링 기법을 제안한다. 제안하는 기법은 제출된 잡들을 제한시간 내에 처리하기 위해 데이터 지역성 만족 여부를 확인하고 I/O 부하 및 데드라인 만족 여부를 고려한다. I/O 부하가 존재하는 노드에서 잡을 수행할 경우 복제본 노드의 데이터를 활용하여 잡 태스크 처리 속도를 향상시킨다. 또한, 잡 예상 완료 시간이 데드라인을 초과했음에도 가용 노드가 발생하지 않을 경우 데드라인에 여유가 있는 잡의 태스크를 지연시켜 잡의 완료 시간을 단축시킨다. 제안하는 기법의 우수성을 입증하기 위해 기존 연구와 성능 평가를 수행한다. In this paper, we propose a mapreduce scheduling scheme to complete jobs within a deadline. The proposed scheme first checks data locality and considers I/O load and deadline to complete the submitted jobs within a constraint time. When a job is processed in a node with I/O load, the data of replica nodes are utilized to enhance the job processing time. In addition, if avaliable nodes do not exist in spite that the expected completion time of the job is over the deadline, the job with the most deadline is delayed and then the urgent job is executed to reduce the job completion time. To show the efficiency of the proposed method, it is compared with the existing method through performance evaluation.
구글 티처블 머신을 활용한 군사장애물 분류 모델 설계 및 실증 연구
황재민(Jaemin Hwang),마정목(Jungmok Ma) (사)한국CDE학회 2022 한국CDE학회 논문집 Vol.27 No.2
With the recent development of Obstacle Clearance Tank (K-600) that can overcome minefield, rockfall and road crator, ROK Army can shorten the time required to overcome obstacles and increase operation efficiency. However, in order to overcome the lack of military service resources in the future and be guaranteed to survive operator, Unmanned Obstacle Clearance Tank should be introduced along with artificial intelligence technologies. In order to develop the Unmanned Obstacle Clearance Tank, the initial recognition stage is critical among “recognitioncontrol-action” stages. This study aims to build the obstacle recognition and classification model based on Google teachable machine and verify the model using the real RC-car camera test environment.
구조적 P2P 네트워크에서 부하 임계치 조정을 통한 동적 부하 분산 기법
윤종현(JongHyeon Yoon),황재민(Jaemin Hwang),오현교(Hyunkyo Oh),임종태(Jongtae Lim),복경수(Kyungsoo Bok),유재수(Jaesoo Yoo) 한국콘텐츠학회 2014 한국콘텐츠학회논문지 Vol.14 No.12
구조적 P2P 네트워크에서 특정 데이터의 활용이 증가할 경우 특정 노드에 부하가 집중되는 상황이 발생할 수 있다. 본 논문에서는 부하 임계치를 조정하여 부하 분산을 향상시키고 인센티브 및 페널티 부여를 통해 자율적인 부하 분산 참여율을 증가시키기 위한 동적 부하 분산 기법을 제안한다. 제안하는 기법은 인접 노드들의 평균 임계치를 이용하여 노드의 부하 임계치를 조정하여 임계치를 균등하게 상승시킨다. 노드의 자발적인 부하 분산 참여를 증가시키기 위해 인센티브와 페널티를 부여한다. 성능평가를 통해 제안하는 기법이 전반적인 부하 분산 성능을 향상시켰으며 전반적인 부하 임계치가 균등하게 조정되었음을 입증한다. With the increase of hot data, the load is concentrated on a particular node in structured P2P networks. In this paper, we propose a dynamic load balancing scheme that improves the load balancing according to load threshold adjustment and autonomously increases the participation ratio through incentive and penalty assignment in structure P2P networks. The proposed scheme evenly increases the load threshold of a node according to load threshold adjustment by using the average thresholds of adjacent nodes. We assign the incentive and penalty to nodes in order to increase their load balancing participation. It is shown through performance evaluation that the proposed scheme improves load balancing performance and evenly adjusts the load threshold of nodes over the existing scheme.