http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.
변환된 중국어를 복사하여 사용하시면 됩니다.
고정우선순위 선점가능 스케쥴링 환경에서의 캐쉬에 의한 선점지연시간 분석 (pp.35-38)
이창건(Chang-Gun Lee),민상렬(Sang Lyul Min),김종상(Chong Sang Kim) 한국정보과학회 1997 한국정보과학회 학술발표논문집 Vol.24 No.2Ⅳ
본 논문에서는 고정우선순위 선점가능 스케쥴링 환경에서 보다 정확하게 캐쉬에 의한 선점지연시간을 예측하기 위한 분석기법을 제안한다. 캐쉬에 의한 선점지연시간을 예측하기 위한 현재까지의 연구는 “선점하는 태스크는 현재 캐쉬에 올라와 있는 선정되는 태스크의 메모리블럭을 캐쉬로부터 모두 쫓아내며, 이렇게 쫓겨난 메모리블럭들은 선점된 태스크가 이후에 수행을 재개했을 때 모두 다시 캐쉬로 올라와야 한다”는 비관적인 가정을 바탕으로 한다. 그러나 본 논문에서 제안하는 기법은 각 태스크가 선점시 지불해야하는 캐쉬에 의한 선점비용으로 유용한 - 이후에 다시 사용되는 - 캐쉬블럭만을 고려하므로써 보다 정확하게 캐쉬에 의한 선점지연시간을 예측할 수 있다. 제안되는 기법에서는, 우선 각 태스크를 분석하여 각 수행지점에서의 유용한 캐쉬블럭 수를 구한 뒤, 이 정보를 선형계획법의 입력으로 하여 주어진 시간동안 발생할 수 있는 최악 선점지연시간을 구한다. 이 최악 선점지연시간을 최악 반응시간식에 적용하여 구해진 각 태스크의 최악 반응시간은 기존의 기법에 의해 구해진 값에 비해 보다 정확한 반응시간 예측값이며, 따라서 이를 이용하면 보다 정확하게, 주어진 태스크가 마감시간 이내에 수행을 완료할 수 있는가 여부(스케쥴 가능성 - schedulability)를 판단할 수 있다. 본 논문에서 행한 실험에 따르면, 제안된 기법은 기존의 기법에 비해 더 정확하게 캐쉬에 의한 선점지연시간을 예측해내며, 이 예측 정확도 향상은 프로세서와 메모리의 속도차가 커짐에 따라 더욱 현저해진다.
VSAT 데이타 통신을 위한 다중액세스기법에 관한 연구
이창건(Chang-Gun Lee),최양희(Yang-Hee Choi),정선종(Seun-Jong Jung),김종상(Chong-Sang Kim) 한국정보과학회 1992 한국정보과학회 학술발표논문집 Vol.19 No.2
본 논문에서는 VSAT(Very Small Aperture Terminal)을 이용한 데이타 통신의 핵심적인 기술인 위성링크의 다중액세스기법을 연구하여 지금까지 제안된 방식보다 지연시간이 적으면서 다양한 트래픽을 수용할 수 있는 새로운 방식을 제시한다. 이를 위하여 VSAT 데이타 통신에서의 요구사항을 분석하고 과거의 다중액세스기법들이 가지는 문제점을 분석했다. 기존의 다중액세스기법들 중 지연시간과 처리율의 관점에서 요구사항에 잘 부합하는 제어식다중액세스기법(Controlled Multiaccess Scheme)에 대해 약술하고 이 기법이 VSAT 데이타 통신에 적용될 때의 문제점들을 제시했다. 마지막으로 이 문제점들을 해결할 수 있는 수정된 기법을 고안하고 이를 적용한 VSAT 데이타 시스템의 구성을 검토하였다.
고정우선순위 선점가능 스케쥴링 환경에서의 캐쉬에 의한 선점지연시간 분석 (pp.243-256)
이창건(Chang-Gun Lee),한주선(Joosun Hahn),서양민(Yang-Min Seo),민상렬(Sang Lyul Min),하란(Rhan Ha),홍성수(Seongsoo Hong),박창윤(Chang Yun Park),이민석(Minsuk Lee),김종상(Chong Sang Kim) 한국정보과학회 1998 정보과학회논문지 : 시스템 및 이론 Vol.25 No.3
프로세서와 메모리사이의 속도차가 증가함에 따라, 범용 컴퓨터 시스템에서 뿐만 아니라 실시간 컴퓨터 시스템에서도 캐쉬 메모리의 필요성이 증대되었다. 캐쉬 메모리의 사용은 태스크의 평균 수행시간을 감소시키는 긍정적인 측면을 가지고 있는 반면, 태스크간의 선점이 허용되는 멀티태스킹 환경에서는 태스크의 수행시간에 예측하기 힘든 추가비용(캐쉬에 의한 선점지연시간)을 초래한다는 부정적 측면도 가지고 있다. 이러한 부정적 측면은 주어진 시간안에 태스크의 수행 완료를 보장해야 하는 실시간 컴퓨터 시스템이 캐쉬 메모리를 사용하는 것을 어렵게 만드는 요소로 작용한다. 본 논문에서는 고정우선순위 선점가능 스케쥴링 환경에서 보다 정확하게 케쉬에 의한 선점지연시간을 예측하기 위한 분석기법을 제안한다. 캐쉬에 의한 선점지연시간을 예측하기 위한 현재까지의 연구는 “선점하는 태스크는 현재 캐쉬에 올라와 있는 선점되는 태스크의 메모리블럭을 캐쉬로부터 모두 쫓아내며, 이렇게 쫓겨난 메모리블럭들은 선점된 태스크가 이후에 수행을 재개했을 때 모두 다시 캐쉬로 올라와야 한다”는 비관적인 가정을 바탕으로한다. 그러나 본 논문에서 제안하는 기법은 각 태스크가 선점시 지불해야하는 캐쉬에 의한 선점비용으로 유용한 - 이후에 다시 사용되는 - 캐쉬블럭만을 고려하므로써 보다 정확하게 캐쉬에 의한 선점지연시간을 예측할 수 있다. 제안되는 기법은 두 단계로 이루어진다. 첫번째 단계에서는 각각의 태스크를 독립적으로 분석하여, 주어진 태스크의 각 수행지점에서의 유용한 캐쉬블럭의 수를 계산하고 이를 이용하여 해당 수행 지점에서의 캐쉬에 의한 선점비용을 구한다. 이렇게 구해진 선점비용들은 각 태스크가 특정 횟수만큼 선점될 때 부가적으로 지불하게 되는 캐쉬에 의한 최악 선점비용을 나타내도록 표의 형태로 정리된다. 두번째 단계에서는 첫번째 단계의 결과를 본 논문에서 정의한 선형계획법의 입력으로 이용하여 주어진 시간동안 발생할 수 있는 캐쉬에 의한 최악 선점지연시간을 계산하고, 이를 최악 반응시간식에 적용하여 각 태스크의 최악 반응시간을 구한다. 이렇게 구해진 최악 반응시간은 기존의 기법에 의해 구해진 값에 비해 보다 정확한 최악 반응시간 예측값이며, 따라서 이를 이용하면 보다 정확하게, 주어진 태스크가 마감시간 이내에 수행을 완료할 수 있는가 여부( 스케쥴 가능성 - schedulability)를 판단할 수 있다. 본 논문에서 행한 실험에 따르면, 제안된 기법은 기존의 기법에 비해 최고 60%까지 더 정확하게 캐쉬에 의한 선점지연시간을 예측해낸다. Cache memory is increasingly being used in real-time computer systems as well as general purpose computer systems due to the ever increasing speed gap between processors and main memory. However, the use of cache memory in real-time systems introduces variation to task execution time when preemptions are allowed among tasks. This paper proposes a technique for analyzing the cache-related preemption delays of tasks that cause such unpredictable variation in task execution time in the context of fixed-priority preemptive scheduling. Unlike previous approaches that make a pessimistic assumption that each memory block of a preempting task replaces from cache memory a memory block needed by a lower priority task, the proposed technique considers the usefulness of cache blocks in computing cache-related preemption delay to improve prediction accuracy. The proposed technique consists of two steps The first step performs a per-task analysis to estimate cache-related preemption cost for each execution paint in a given task from the number of useful cache blocks at the execution point. The results of this first step are given in a table that specifies the (worst case) preemption cost for a given number of preemptions. The second step computes the worst case response time of each task using a response time equation and a linear programming technique which takes as its input the preemption cost information of tasks obtained in the first step. Our experimental results show that the proposed technique gives a prediction of the worst case cache-related preemption delay that is up to 60% tighter than that obtained from previous approaches.
Design and Performance Evaluation of Electrodewatering System for Sewage Sludge Recycling
Jae-Keun Lee(이재근),Hee-Soo Shin(신희수),Jung-Eun Lee(이정은),Chang-Gun Lee(이창건),Joo-Yong Lee(이주용),Man-Jong Kim(김만종) 대한기계학회 2001 대한기계학회 춘추학술대회 Vol.2001 No.9
A laboratory-scale electrodewatering system for enhancing conventional filter pressure dewatering by an electric field has been developed to decrease the water content of sludge generated in the wastewater treatment. It consists of a piston-typed filter press, a power supply and data acquisition system. The effect of electrodewatering is investigated as a function of applied pressure, applied voltage, sludge type and filtration time. Also the optimal conditions for maximizing the dewatering efficiency in the eletrodewatering system are investigated. Electric field strength and mechanical pressure are in the range of from 0 to 120 V/㎝ and from 98.1 to 392.4 ㎪. The dewatering rates increased with increasing electric strength. These experiments produced a final sludge cake with water content of 60 wt% using electrodewatering technology, compared with a 80 wt% using pressure filtration alone. The conventional filtration system using the electrodewatering shows the potential to be effective method for improving dewatering Sludge.
이두희(Lee Duhee),이창건(Lee Chang-gun),하은용(Ha Eun Yong) 한국정보과학회 2009 한국정보과학회 학술발표논문집 Vol.36 No.1
실시간 어플리케이션은 DMP(Deadline Miss Probability)가 사용자의 요구치 이하로 낮을 때 의미가 있다. 하지만 범용 운영체제에서 상에선. 예측하기 어려운 페이지 폴트로 인해 실시간 어플리케이션의 수행시간을 계산?기 힘들다. DMP를 낮추기 위해, 어플리케이션의 모든 코드 페이지를 메몬리에 올려놓는 쉐도잉 방법이 주로 쓰이지만, 이 쉐도잉 방법은 불필요한 메모리를 낭비를 초래한다. RT-PLRU(Real-Time constrained combination of Pinning and LRU)는 메모리는 효과적으로 사용하면서, 실시간 어플리케이션의 DMP를 사용자 요구치 이하로 낮춰주는 새로운 페이지 교체 정책이다. 하지만 아직 하나의 어플리케이션에 대해서만 연구가 되어 있다. 이 논문은 RT-PLRU 페이지 교체 정책을 여러 어플리케이션이 수행되는 멀티 태스크 환경으로 확장하는 내용을 다루고 있다.