http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.
변환된 중국어를 복사하여 사용하시면 됩니다.
고성능 PCM 스토리지를 위한 디스크 캐싱 기법의 설계와 구현
정학수(Haksu Jeong),유준희(Junhee Ryu),신현식(Heonshik Shin) 한국정보과학회 2012 한국정보과학회 학술발표논문집 Vol.39 No.1A
PCM은 바이트 단위 읽고 쓰기가 가능한 비휘발성 메모리로서 차세대 스토리지로 주목받고 있다. 기존의 디스크 캐싱 기법은 하드 디스크나 SSD와 같이 섹터 단위로 엑세스하는 장치를 위하여 페이지 단위의 캐싱을 하고 있다. 하지만, 바이트 단위 접근이 가능한 고성능 PCM의 특성을 활용하기 위해서는 PCM 스토리지를 위한 효율적인 단위의 디스크 캐싱 기법이 필요하다. 본 논문에서는 페이지 단위가 아닌 128바이트 단위 I/O요청을 위한 캐싱 방법을 제안하며, 이를 기반으로 몇 가지 워크로드에 대하여 실험을 진행하여 I/O 요청의 크기와 개수 변화를 추정한다. 실험 결과를 바탕으로 제안한 기법이 PCM 스토리지에서 더 적합함을 보인다.
브레이크포인트를 이용한 범용 워크로드 프리페칭 프레임워크
고광진(Kwangjin Ko),유준희(Junhee Ryu),강경태(Kyungtae Kang),신현식(Heonshik Shin) 한국정보과학회 2014 정보과학회논문지 Vol.41 No.10
프로그램의 로딩 속도는 프로그램이 요청하는 디스크 블록을 미리 읽어 들임으로써(프리페칭) 향상시킬 수 있다. 그러나 기존의 프리페칭 관련 기법들은 특정 프로그램에 최적화된 경우를 제외하면 상당한 오버헤드를 보여주었다. 특히 요청블록을 정확히 추적하는데 어려움이 있었다. 어떤 블록들은 여러 시퀀스(단위시간 내에 추적된 블록들)에 나타날 수 있고 두 접근 시퀀스가 동일 하더라도 버퍼 캐시에 의해서 접근 시간과 수집되는 블록 정보가 다를 수 있기 때문에 분석이 까다롭다. 본 논문에서는 소프트웨어적 접근 방법으로 새로운 범용 워크로드 프리페칭 기법을 제안한다. 제안하는 프리페칭 기법은 브레이크 포인트를 프로그램의 적재 적소에 배치함으로써 요청 블록의 상관관계 정보를 수집하고, 이를 바탕으로 프리페칭을 수행한다. 상용 하드디스크를 이용한 실험 결과, 불필요한 오버헤드가 감소되었으며 기동 시간은 평균 30%, 로딩은 평균 15% 단축되었음을 확인하였다. Application loading speed can be improved by timely prefetching disk blocks likely to be needed by an application. However, existing prefetchers if they are not specialized to a particular application incur high overheads and are poor at identifying the blocks that will actually be required. There are many sequences in which blocks may be needed and, even if two access sequences are identical, block tracing and access timings can be affected significantly by the state of the buffer cache. We propose a new application independent software based prefetching technique, in which breakpoints are inserted at appropriate places in an application to collect the information on correlations between the blocks and to prefetch the potential blocks ahead of their schedule based on it. Experiments on an HDD based desktop PC demonstrated an average 30% reduction in application launch time and 15% in general I/O, while reducing the wasted overhead.
응용프로그램의 기동시간 단축을 위한 파일 시스템 수준의 SSD 캐싱 기법
한창희(Changhee Han),유준희(Junhee Ryu),이동은(Dongeun Lee),강경태(Kyungtae Kang),신현식(Heonshik Shin) 한국정보과학회 2015 정보과학회논문지 Vol.42 No.6
응용프로그램의 기동 시간은 기기에 대한 사용자 체험에 영향을 주는 중요한 지표로 보조 기억 장치의 성능에 의해 큰 영향을 받는다. 하드디스크 대신 SSD를 사용하게 되면 기동 시간을 크게 낮출 수 있지만 비용 대비 성능을 고려하면 작은 용량의 SSD를 하드디스크의 캐시로 쓰는 것이 현실적인 대안이 될 수 있다. 본 논문에서는 파일시스템 수준에서 하드디스크 상의 블록을 SSD로 이주시키는 기법을 제안한다. 제안한 기법은 기존의 SSD 캐싱 기법들에서 요구되던 캐시 데이터의 사상에 필요한 주 메모리, CPU, 그리고 사상 정보의 유지를 위한 SSD 공간 사용의 부가적인 오버헤드가 없다. 8개의 응용프로그램을 이용한 실험에서 메타데이터와 데이터 블록을 모두 SSD에 캐싱한 경우에 기동시간이 평균 56% 단축됨을 확인하였다. Application launch time is an important performance metric to user experience in desktop and laptop environment, which mostly depends on the performance of secondary storage. Application launch times can be reduced by utilizing solid-state drive (SSD) instead of hard disk drive (HDD). However, considering a cost-performance trade-off, utilizing SSDs as caches for slow HDDs is a practicable alternative in reducing the application launch times. We propose a new SSD caching scheme which migrates data blocks from HDDs to SSDs. Our scheme operates entirely in the file system level and does not require an extra layer for mapping SSD-cached data that is essential in most other schemes. In particular, our scheme does not incur mapping overheads that cause significant burdens on the main memory, CPU, and SSD space for mapping table. Experimental results conducted with 8 popular applications demonstrate our scheme yields 56% of performance gain in application launch, when data blocks along with metadata are migrated.