RISS 학술연구정보서비스

검색
다국어 입력

http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.

변환된 중국어를 복사하여 사용하시면 됩니다.

예시)
  • 中文 을 입력하시려면 zhongwen을 입력하시고 space를누르시면됩니다.
  • 北京 을 입력하시려면 beijing을 입력하시고 space를 누르시면 됩니다.
닫기
    인기검색어 순위 펼치기

    RISS 인기검색어

      검색결과 좁혀 보기

      선택해제
      • 좁혀본 항목 보기순서

        • 원문유무
        • 원문제공처
        • 등재정보
          펼치기
        • 학술지명
          펼치기
        • 주제분류
        • 발행연도
          펼치기
        • 작성언어
        • 저자
          펼치기

      오늘 본 자료

      • 오늘 본 자료가 없습니다.
      더보기
      • 무료
      • 기관 내 무료
      • 유료
      • Catching two rabbits: adaptive real-time support for embedded Linux

        Seo, Euiseong,Jeong, Jinkyu,Park, Seonyeong,Kim, Jinsoo,Lee, Joonwoon John Wiley Sons, Ltd. 2009 SOFTWARE-PRACTICE & EXPERIENCE Vol.39 No.5

        <P>The trend of digital convergence makes multitasking common in many digital electronic products. Some applications in those systems have inherent real-time properties, while many others have few or no timeliness requirements. Therefore the embedded Linux kernels, which are widely used in those devices, provide real-time features in many forms. However, providing real-time scheduling usually induces throughput degradation in heavy multitasking due to the increased context switches. Usually the throughput degradation becomes a critical problem, since the performance of the embedded processors is generally limited for cost, design and energy efficiency reasons. This paper proposes schemes to lessen the throughput degradation, which is from real-time scheduling, by suppressing unnecessary context switches and applying real-time scheduling mechanisms only when it is necessary. Also the suggested schemes enable the complete priority inheritance protocol to prevent the well-known priority inversion problem. We evaluated the effectiveness of our approach with open-source benchmarks. By using the suggested schemes, the throughput is improved while the scheduling latency is kept same or better in comparison with the existing approaches. Copyright © 2008 John Wiley & Sons, Ltd.</P>

      • 단일사용자 다중프로그래밍 환경에서 비례배분이 가능한 페이지대치 알고리즘

        서의성(Euiseong Seo),박도현(Dohyun Park),오승택(Seungtaek Oh),이준원(Joonwon Lee) 한국정보과학회 2002 한국정보과학회 학술발표논문집 Vol.29 No.1A

        컴퓨터 시스템의 성능이 발전하면서 동시에 실행되는 프로그램의 수도 증가하게 되었다. 이로 인해 자원을 두고 경쟁하는 프로세스들의 우선순위에 따라 분배되는 자원의 양을 세밀하게 조절하는 기능이 필요하게 된다. 우선순위에 따른 자원의 비례배분 알고리즘에 대한 연구가 많이 있었고, 이를 바탕으로 대부분의 자원을 관리하는 운영체제들도 개발 되었다. 하지만, 가상메모리 자원에 대해서는 자원의 할당량의 모호함과 프로세스가 사용한 메모리 필요량이 예측불가능하기 때문에 적은 연구가 이루어졌을 뿐이다. 본 논문에서는 프로세스가 단위 작업을 수행할 때 발생하는 페이지폴트의 양이 프로세스의 우선순위에 반비례하는 것으로 가상 메모리에 대한 비례배분 개념을 정의 하고, 프로세스 마다 메모리에 대한 요구 형태가 다른 환경에서 이를 가능하게 하는 페이지대치 알고리즘을 제안한다. 제안한 페이지대치 알고리즘을 리눅스 커널상에 구현한다. 구현된 페이지대치 알고리즘을 사용하면 우선순위가 높은 프로세스가 우선순위가 낮은 프로세스에 비해서 페이지폴트를 적게 발생하고, 그 발생량은 반비례 관계에 있음을 보인다.

      • 이동형 개인 컴퓨팅 환경의 에너지 효율 증가를 위한 빠른 전압 조절을 고려한 가변 성능 알고리즘

        서의성(Euiseong Seo),이준원(Joonwon Lee) 한국정보과학회 2005 한국정보과학회 학술발표논문집 Vol.32 No.1

        DVS(dynamic voltage scaling)은 이동형 프로세서에서 에너지 효율을 높이기 위한 필수 요소로 자리 잡고 있다. DVS를 효과적으로 사용하기 위해선 대상 태스크의 특성과 하드웨어 특성에 맞는 DVS 알고리즘이 필요하다. 상품화 수준의 많은 운영체계들이 일정한 인터벌(interval)을 바탕으로 시스템 사용 상황을 분석하여 목표 성능을 결정하는 방식을 사용하고 있다. 이러한 방식은 태스크의 특성이 갑자기 변하여 성능을 요구할 경우 인터벌만큼의 시간이 진행된 후에야 반응 한다는 단점이 있다. 또한, 태스크 별 특성이 아닌 시스템 전체의 특성을 따르므로 이질적인 성격의 태스크들이 동시에 실행 되는 환경에는 적합하지 않다. 최근의 모바일 프로세서들은 수 마이크로초 수준의 성능 전환 시간을 제공하고 있으며 이 속도는 계속 줄어들고 있다. 프로세서의 고성능화로 인해 I/O 작업의 경우 프로세서 성능에 따른 실행 시간의 차이가 존재 하지 않는다. 이러한 두가지 특성을 바탕으로 우리는 TIB(timer interrupt based) 알고리즘을 제안한다. TIB 알고리즘은 일정한 길이의 인터벌 대신 타임 슬라이스(time slice)를 성능 결정의 단위로 삼는다. 성능의 결정은 태스크 별로 이루어지며 각 태스크가 사용했던 이전 타임 슬라이스가 타이머 인터룹트(timer interrupt)에 의해 끝났다면 최대의 성능을 그 외의 경우는 최저의 성능으로 실행하게 된다. 이러한 접근 방식을 통해 I/O 작업이나 이벤트를 기다리는 태스크에 대해 최저 성능을 제공함으로써 실행 시간의 적은 손해를 대가로 많은 에너지 절감을 이룰수 있다. 또한, 태스크의 속성이 변한 경우 타임 슬라이스 길이 만큼의 지체만을 허용하게 된다. 이러한 TIB 인터벌에 기반한 알고리즘에 비해 개별 태스크의 특성에 따른 성능 조절과 태스크의 변화에 따른 빠른 반응을 자랑으로 한다. 본 논문에선 TIB 알고리즘을 리눅스 커널에 구현하여 성능을 평가하였고 그 결과 리눅스에서 사용되는 기존 인터벌 기반의 알고리즘들에 비해 좋은 전력 절감 효과를 얻을 수 있었다.

      • Efficient function call tracing with link-time binary rewriting for CE devices

        Bon-Keun Seo,Jinkyu Jeong,Joonwon Lee,Euiseong Seo IEEE 2013 IEEE TRANSACTIONS ON CONSUMER ELECTRONICS - Vol.59 No.4

        <P>As the scale and complexity of software components in consumer electronics increase, the importance of performance optimization is rapidly growing. Consequently, the demand for performance optimization tools tailored for the consumer electronics environment is stronger than ever. A function call tracer is a vital tool for investigating relationships between functions, invocation counts of a function, and elapsed time in a function. Despite its importance in performance optimization, the limited capability of embedded hardware prohibits use of existing dynamic binary instrumentation tools. Moreover, the use of closed proprietary components excludes source-level analysis tools out of viable options. In this paper, LITIFUT, a function call tracer designed for consumer electronics, is proposed. This tool rewrites an executable file or a library file to inject profiling code during the linking stage. This approach achieves as little performance overhead as source-level instrumentation and as minor developer-intervention as binary-level instrumentation. The prototype implementation supports the two most popular embedded processor architectures. The evaluation with a real-world embedded software application showed that LITIFUT successfully profiles program activities with insignificant overhead.</P>

      • PABC: Power-Aware Buffer Cache Management for Low Power Consumption

        Lee, M.,Euiseong Seo,Joonwon Lee,Jin-soo Kim IEEE 2007 IEEE Transactions on Computers Vol.56 No.4

        <P>Power consumed by memory systems becomes a serious issue as the size of the memory installed increases. With various low power modes that can be applied to each memory unit, the operating system can reduce the number of active memory units by collocating active pages onto a few memory units. This paper presents a memory management scheme based on this observation, which differs from other approaches in that all of the memory space is considered, while previous methods deal only with pages mapped to user address spaces. The buffer cache usually takes more than half of the total memory and the pages access patterns are different from those in user address spaces. Based on an analysis of buffer cache behavior and its interaction with the user space, our scheme achieves up to 63 percent more power reduction. Migrating a page to a different memory unit increases memory latencies, but it is shown to reduce the power consumed by an additional 4.4 percent</P>

      • KAL: kernel-assisted non-invasive memory leak tolerance with a general-purpose memory allocator

        Jeong, Jinkyu,Seo, Euiseong,Choi, Jeonghwan,Kim, Hwanju,Jo, Heeseung,Lee, Joonwon John Wiley Sons, Ltd. 2010 SOFTWARE-PRACTICE & EXPERIENCE Vol.40 No.8

        <P>Memory leaks are a continuing problem in the software developed with programming languages, such as C and C++. A recent approach adopted by some researchers is to tolerate leaks in the software application and to reclaim the leaked memory by use of specially constructed memory allocation routines. However, such routines replace the usual general-purpose memory allocator and tend to be less efficient in speed and in memory utilization. We propose a new scheme which coexists with the existing memory allocation routines and which reclaims memory leaks. Our scheme identifies and reclaims leaked memory at the kernel level. There are some major advantages to our approach: (1) the application software does not need to be modified; (2) the application does not need to be suspended while leaked memory is reclaimed; (3) a remote host can be used to identify the leaked memory, thus minimizing impact on the application program's performance; and (4) our scheme does not degrade the service availability of the application while detecting and reclaiming memory leaks. We have implemented a prototype that works with the GNU C library and with the Linux kernel. Our prototype has been tested and evaluated with various real-world applications. Our results show that the computational overhead of our approach is around 2% of that incurred by the conventional memory allocator in terms of throughput and average response time. We also verified that the prototype successfully suppressed address space expansion caused by memory leaks when the applications are run on synthetic workloads. Copyright © 2010 John Wiley & Sons, Ltd.</P>

      • KCI우수등재

        대용량 파일시스템을 위한 선택적 압축을 지원하는 인-메모리 캐시의 설계와 구현

        최형원(Hyeongwon Choe),서의성(Euiseong Seo) 한국정보과학회 2017 정보과학회논문지 Vol.44 No.7

        DRAM 기반의 인메모리 캐시는 고비용으로 인해 용량을 늘리는 데에는 한계가 있다. 이를 위해 압축을 이용하여 더 많은 데이터를 캐시하는 기법들이 연구되어 왔다. 그러나 압축은 높은 처리부하와 반응 지연을 야기한다. 본 논문에서는 섀넌 엔트로피를 통해 파일의 압축률을 낮은 오버헤드를 통해 고속으로 예측하여, 높은 압축률을 가진 파일만 압축하는 선택적 압축 기법을 제안하였다. 또한 이를 파일시스템 내에서 실제 사용이 가능하도록 커널 레벨에서 파일 시스템을 위한 인메모리 캐시를 제공하도록 구현하였다. 실험 결과 선택적 압축 기법은 비 압축에 비해 약 18%의 실행시간 감소를 보이며, 전체 캐시 데이터 압축 방법에 비해서도 캐시 히트율의 감소에 의한 성능하락을 최소화 시키고, 동시에 압축에 대한 오버헤드를 줄여, 7.5%의 실행시간을 감소시킬 수 있음을 보였다. 또한 압축에 사용되는 CPU사용시간을 모두 압축 했을 때와 비교하여 28%감소시킬 수 있음을 보여주었다. The demand for large-scale storage systems has continued to grow due to the emergence of multimedia, social-network, and big-data services. In order to improve the response time and reduce the load of such large-scale storage systems, DRAM-based in-memory cache systems are becoming popular. However, the high cost of DRAM severely restricts their capacity. While the method of compressing cache entries has been proposed to deal with the capacity limitation issue, compression and decompression, which are technically difficult to parallelize, induce significant processing overhead and in turn retard the response time. A selective compression scheme is proposed in this paper for in-memory file system caches that rapidly estimates the compression ratio of incoming cache entries with their Shannon entropies and compresses cache entries with low compression ratio. In addition, a description is provided of the design and implementation of an in-kernel in-memory file system cache with the proposed selective compression scheme. The evaluation showed that the proposed scheme reduced the execution time of benchmarks by approximately 18% in comparison to the conventional non-compressing in-memory cache scheme. It also provided a cache hit ratio similar to the all-compressing counterpart and reduced 7.5% of the execution time by reducing the compression overhead. In addition, it was shown that the selective compression scheme can reduce the CPU time used for compression by 28% compared to the case of the all-compressing scheme.

      연관 검색어 추천

      이 검색어로 많이 본 자료

      활용도 높은 자료

      해외이동버튼