http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.
변환된 중국어를 복사하여 사용하시면 됩니다.
김광복(Gwang Bok Kim),허신(Shin Heu) 한국정보과학회 2010 한국정보과학회 학술발표논문집 Vol.37 No.1C
BPMS, ERP, SCM 등 프로세스 인식 정보시스템들이 널리 쓰이게 되면서 프로세스 마이닝에 대한 연구가 활발하게 이루어지고 있다. 프로세스 마이닝은 프로세스가 실행되는 동안 저장된 이벤트 로그로부터 정보를 추출하는 기법이다. 추출된 로그정보는 비즈니스 프로세스의 분석 및 재설계에 사용될 프로세스 모델을 생성하게 된다. 프로세스 마이닝 기법은 프로세스의 자동화 및 기업의 업무정보들을 관리하는 프로세스 기반 정보시스템의 정확성 및 효율성을 위한 중요한 부분을 차지하지만 현재까지의 연구는 생성된 이벤트 로그로부터 프로세스 모델을 재설계하는 프로세스 발견 기법 (Process Discovery Technique)을 적용한 부분에서만 활발히 진행되었다. 프로세스 마이닝은 프로세스 발견 기법 외에도 프로세스 적합성검사 기법 (Process Conformance Checking Technique) 및 프로세스 확장 기법 (Process Extension Technique)이 존재한다. 이들은 많은 프로세스 발견 기법에 대한 연구들이 진행되고 나서야 최근 프로세스 마이닝의 이슈로 떠오르고 있다. 본 논문에서는 프로세스 적합성 검사를 위해 수집된 이벤트 로그와 기존에 나와 있는 여러 가지 프로세스 발견 알고리즘을 통해 생성된 프로세스를 수치적으로 비교할 수 있는 두 가지 애트리뷰트를 제시하였다.
저전력 1차 명령어 캐쉬를 위한 명령어 흐름 기반 이른 웨이 결정 기법
김광복(Gwang Bok Kim),김종면(Jong Myon Kim),김철홍(Cheol Hong Kim) 한국컴퓨터정보학회 2016 韓國컴퓨터情報學會論文誌 Vol.21 No.9
Recent embedded processors employ set-associative L1 instruction cache to improve the performance. The energy consumption in the set-associative L1 instruction cache accounts for considerable portion in the embedded processor. When an instruction is required from the processor, all ways in the set-associative instruction cache are accessed in parallel. In this paper, we propose the technique to reduce the energy consumption in the set-associative L1 instruction cache effectively by accessing only one way. Gshare branch predictor is employed to predict the instruction flow and determine the way to fetch the instruction. When the branch prediction is untaken, next instruction in a sequential order can be fetched from the instruction cache by accessing only one way. According to our simulations with SPEC2006 benchmarks, the proposed technique requires negligible hardware overhead and shows 20% energy reduction on average in 4-way L1 instruction cache.
GPU 성능 향상을 위한 지연시간 숨김 기반 워프 스케줄링
김광복(Gwang Bok Kim),김종면(Jong Myon Kim),김철홍(Cheol Hong Kim) 한국컴퓨터정보학회 2019 韓國컴퓨터情報學會論文誌 Vol.24 No.4
LRR(Loose Round Robin) warp scheduling policy for GPU architecture results in high warp-level parallelism and balanced loads across multiple warps. However, traditional LRR policy makes multiple warps execute long latency operations at the same time. In cases that no more warps to be issued under long latency, the throughput of GPUs may be degraded significantly. In this paper, we propose a new warp scheduling policy which utilizes latency hiding, leading to more utilized memory resources in high performance GPUs. The proposed warp scheduler prioritizes memory instruction based on GTO(Greedy Then Oldest) policy in order to provide reduced memory stalls. When no warps can execute memory instruction any more, the warp scheduler selects a warp for computation instruction by round robin manner. Furthermore, our proposed technique achieves high performance by using additional information about recently committed warps. According to our experimental results, our proposed technique improves GPU performance by 12.7% and 5.6% over LRR and GTO on average, respectively.
Sol-Gel법으로 제조한 $TiO_2$의 광촉매 활성도
김동형,이태규,김광복,이승원,Kim, Dong-Hyeong,Lee, Tae-Gyu,Kim, Gwang-Bok,Lee, Seung-Won 한국재료학회 1996 한국재료학회지 Vol.6 No.3
광화학 반응의 초기 유발을 위한 광촉매로 TiO2가 가장 널리 알려져 있으며, 기존의 상품보다 광촉매 활성도가 높은 촉매를 얻기 위해 Sol-Gel법을 이용하였다. TiO2 광촉매 제조를 위하여 전구체로서 Tetra-eth해-ortho-titanate(TEOT)를 이용하여 xerogeol 분말을 얻었으며, 광화학 반응의 효율을 측정하기 위해 분해대상 물질을 Dichloroacetic acid(DCA)로 선정하였다. 순수 titania 졸을 얻기 위한 최적조건은 알콕사이드 1몰당 물 40몰, 산 0.05몰이었고 pH의 범위는 3.3-3.6이었으며 Hexylene Glycol(HG)의 첨가량은 1몰임을 알 수 있었다. BET-N2방법을 이용하여 표면적을 측정한 결과 물/알콕 사이드의 몰비가 40-80범위에서 비표면적이 급격히 증가되어 DCA 의 광분해율도 증가하였으며, 몰 40몰을 첨가 후 졸-겔법으로 제조한 분말을 40$0^{\circ}C$에서 1시간 열처리한 anatase phase의 TiO2가 최고의 광분해 효율인 약 21%를 보였다. 이는 상업용으로 가장 효율이 높은 Dagussa P-25의 DCA 분해 효율보다 2배 정도 높은 것으로 나타났다.
Workload Characteristics-based L1 Data Cache Switching-off Mechanism for GPUs
Thuan Cong Do(두콩튜안),Gwang Bok Kim(김광복),Cheol Hong Kim(김철홍) 한국컴퓨터정보학회 2018 韓國컴퓨터情報學會論文誌 Vol.23 No.10
Modern graphics processing units (GPUs) have become one of the most attractive platforms in exploiting high thread level parallelism with the support of new programming tools such as CUDA and OpenCL. Recent GPUs has applied cache hierarchy to support irregular memory access patterns; however, L1 data cache (L1D) exhibits poor efficiency in the GPU. This paper shows that the L1D does not always positively affect the applications in terms of performance and energy efficiency for the GPU. The performance of the GPU is even harmed by using the L1D for lots of applications. Our proposed technique exploits the characteristics of the currently-executed applications to predict the performance impact of the L1D on the GPU and then decides whether to continuously use the cache for the application or not. Our experimental results show that the proposed technique improves the GPU performance by 9.4% and saves up to 52.1% of the power consumption in the L1D.
김재형(Jae Hyung Kim),김광복(Gwang Bok Kim),김건우(Gun-Woo Kim),이정화(Jeong Wha Lee),손진현(Jin Hyun Son) 한국정보과학회 2008 한국정보과학회 학술발표논문집 Vol.35 No.2
기업 간의 경쟁이 심화되고 새로운 비즈니스 가치 창출을 위한 필요성이 증대되고 있는 상황에서, 비즈니스 프로세스 재설계(Business Process Re-engineering)은 여전히 중요한 개념으로 인식되고 있다. 프로세스 마이닝의 역할은 비즈니스 프로세스 재설계의 근거로 사용될 프로세스 모델을 생성하는 것이다. 프로세스 마이닝은 프로세스가 실제로 실행될 때 발생하는 이벤트 로그를 수집하여 알고리즘에 적용하고, 이를 통해 새로운 모델을 생성한다. 본 논문에서는 데이터 마이닝에 사용되는 FP-트리를 변형한 MFP-트리를 사용하여 프로세스 마이닝을 위한 알고리즘을 제시하고자 한다.